Augmented Reality QR Kod u Öldürüyor

Augmented Reality Kills The QR Code Star

BY KIT EATONThu Aug 4, 2011

LAYAR

Augmented reality leader Layar just took its system to a whole new level by installing a real-world object recognition protocol that’s a little like Google’s Goggles. In one swoop it may have turned AR apps from intriguing, inspiring, and occasionally useful toys into serious tools for information discovery and, of course, advertising. Let’s call it hacking the real world.

AR was a tech that really grabbed the headlines over the last couple of years, propelled by increasing ubiquity of smartphones with always-on Net connections, sensors, and high-quality rear-facing cameras. This tech trinity allowed clever apps to work out where the phone was in the world, what direction it was looking at and then deliver useful information to the phone user, such as where the nearest Metro station was, and how to get there. But creating digital “events” in the AR world required developers or users to tag reality with geo-located flags–actual fixed positions in space–which limited its usefulness for more spontaneous access to data.

Which is where Layar Vision changes everything: What if you could hold your AR-enabled iPhone up to something in real life that you just came across–say the cover of Fast Company magazine–and get an overlay of data about it, perhaps an option to click to this web page or a special offer of subscriptions? That’s something Maarten Lens-Fitzgerald, founder of Layar, suggested to us is one of the most powerful exploits of the new tech. Vision really does behave like Google Goggles does: When Layar “sees” an item it recognizes, wherever it may be, it returns data to your phone immediately. In Google’s case it’s just its traditional search result list, accessed in a very visual way. In Layar, it results in whatever action has been associated with the object. All it takes, Maarten explains, is for the developer to choose the planar object they’d like to be recognizable, upload it to Layar’s servers to act as a fingerprint, and then the app does all the rest.

The object can be anything from a poster to a magazine to a small item, and the action can be anything from overlaying a 3-D graphic to playing a video file to sending you to a web page. Maarten was careful to note “I really think that for the publishing industry it’ll work best” at first: “Say you just wrote a book and want to market it. Upload a picture of the cover to our server” and then you can “link a bio, a photo of the author, a video or you can show a 3-D object, for instance a spaceship if it’s a sci-fi novel.” And from there, for the user who sees the AR effect, it’s “so easy then to say ‘I Like this’ or ‘I’ll Tweet this or comment on this,'” perhaps meaning the “real world can now be very easily linked to the digital world.”

Instantly there’s the power of this system, laid bare. Layar developers really can “hack reality” now. Imagine, Lens-Fitzgerald suggests, that there are really practical uses: “Say you’re buying chicken in the supermarket, and you hold your phone over it–then you can see there’re antibiotics in the meat” for this particular package, because a developer has made a food facts database, and uploaded an image of the typical store chicken label, linking it perhaps “to an article by Reuters about it.” That’s one way to circumvent, or subvert, advertising, but of course advertising may be one of the earliest beneficiaries of this development, alongside publishing. As a magazine, you could upload your next cover art to Layar, and give the first 1,000 visitors who click on the Layar-discovered hyperlink a prize or gift of some sort. Meanwhile advertizers could plop a 3-D image of the latest sleek concept car onto the flat 2-D image in a two-page newspaper ad, adding in all sorts of interactivity and detailed specs.

You may recognize this kind of function: It’s what QR codes have been used for until now, on everything from advertising to business cards to Sony’s EyePet interactive PlayStation game. A QR code is basically a machine-recognizable system that contains short snippets of text, a phone number, or a web link–but to access it you need a compatible app, and you have to plaster the QR code in a clearly readable way onto the object, be it a mag advert or a website. This is powerful, but clumsy.

And Layar’s made it a little irrelevant–the object itself is now the real world “tag,” and because Layar is a browser, it lets the data associated with the tag be much richer and more dynamic than a QR code could manage.

There’s just one sticking point: How do you know a random real-world item is actually an AR tag? QR codes define themselves as a tag, but a random magazine page doesn’t, unless it’s labeled as such. Until AR becomes more ubiquitous, this may be a problem.

But the utility of this kind of trick can’t be overlooked. Using a different AR system (Junaio) an anti-public advertising group just released an app that blanks out ad billboards, suppressing their message for an artistic end…essentially an attempt to declutter your life. As Lens-Fitzgerald notes, one of the biggest lessons Layar learned for Vision was “at MOMA in New York when an artist put up different art pieces on every floor using just geo-located AR,” and with the new system “this is much easier because you can put what you want wherever you want.” This kind of novel use of AR object-recognition tech will only emerge as more people use it, and the object-recognition power is one way that developers may be tempted to build richer and more rewarding AR experiences because of it.

In fact, there are use cases that extend from security and anti-terrorism right down to, thanks to object-recognition, apps that show you how to program your newly purchased microwave oven with dynamic, interactive graphics. And with giant players like hardware manufacturer Qualcomm getting into the AR game, and predictions that the industry could be worth over $1.5 billion by 2015, it’s a tech that’s only going to get more ubiquitous. Augmented reality is essentially growing up, moving from toy status to genuine utility, and bringing big money-earning potential with it.

Reklamlar

Java 8_ Bulut Bilişim İçin Vites Artışı

Now that Java 7 SE (Standard Edition) has officially been released, Oracle and members of the JCP (Java Community Process) have started mulling over what features to include in the next version of the programming language, Java SE 8. On the agenda for this new release: engineering Java for the cloud.

“Java 8 is supposed to set the scene for the cloud, for a wider deployment arena,” said Mark Little, senior director of engineering for Red Hat’s middleware business, as well as Red Hat’s primary liaison for the JCP. Oracle left out many of the advanced features planned for Java 7 in order not to further delay the release, he noted. Those releases may very well be included in Java 8.

At least two of those features will prove instrumental in making the next version of Java ready for wide-scale cloud deployment, Little said. One is multitenancy, or the ability for the Java Virtual Machine (JVM) to safely run multiple applications. The other is modularity, or a reorganization of the JDK (Java Development Kit) into a set of cleanly defined though interdependent modules.

“Modularity and true multitenancy within the JVM will be critical for 8 if Java will be dominant in the cloud,” Little said.

Modularity is what Red Hat would most like to see in Java 8, Little said. Modularity would cut the size of most Java deployments, because not all deployments need all of Java’s core libraries. It would also help developers more easily interact with Java, allowing them to only use the parts they need rather than grapple with the entire codebase.

Modularity would also help with a developer problem that Little describes as “classloader hell.”

Developers experience classloader hell when a Java program accesses multiple JARs (Java Archives), or collections of commonly used routines. An app may use a class from one JAR when it actually needs a different version of that class that resides in another JAR. Or it may use a JAR used by another program, and once that other program terminates, the JAR is removed, causing the first application to stop working.

“In order to have modules swapped in and out at will without screwing up the whole environment, you need to have support in the JVM as well,” Little said.

One effort, Project Jigsaw, has been working on this goal. When Sun Microsystems controlled Java (Oracle purchased Sun in 2010), that company’s engineers preferred Jigsaw over another approach, OSGi (Open Services Gateway initiative), overseen by the OSGI initiative.

Project Jigsaw was slated for Java 7, though it got pulled in 2010 in order to ship Java by 2011, Little said. Nonetheless, either the work from Jigsaw or OSGi should be folded into Java 8, Little predicted. “There will be some modularity present in Java SE 8,” he said.

In addition to modularity, Java 8 may also feature multitenancy, or the ability to safely run multiple applications from one JVM.

Such a feature would be essential for Java to be used in cloud computing, where multiple parties may share the same infrastructure.

Today the Java Enterprise Edition offers a work-around for this problem, however. “If the JVM itself isn’t offering multitenancy, then there is only so much we can do before the whole thing can potentially get screwed up by rogue tenants in the same JVM,” Little said.

Little advocated adding to the JVM the ability to give each application its own memory space, or zone. By doing this, “a rogue app will not [spill over into] a memory space you saved for another app running in the same JVM,” he said.

Little is not alone in cheering on this idea.

“Adding multitenancy to JVM is important,” agreed Forrester Research analyst John Rymer. “Today, each vendor must come with its own way of virtualizing its application server.”

Building multitenancy into the JVM would ease the training burden that comes with supporting each unique approach. It would cut back on vendor lock-in as well as “allow vendors to invest in robustness and performance more than base function,” Rymer said.

Another feature that many have long championed for inclusion in Java is closures, or the ability to create a function within another function and have them share variables. Closures would be helpful in running Java more efficiently across multiple processor cores.

While Oracle chief Java architect Mark Reinhold has been enthusiastic about including closures within Java, he did not feel the proposed implementations were ready for Java 7. The fight will begin anew for closures’ inclusion in Java 8.

If included, closures would put Java on par with other languages that already include this capability, such as JavaScript and Scala.

“The work on closures looks like it will be a compatible, more restricted version to what we already have in Scala,” boasted Martin Odersky, Scala creator and co-founder of Scala tools vendor Typesafe.

Beyond the technology itself, many are closely watching how Oracle shepherds Java 8 going forward.

Oracle has not yet established an official timeline for a Java 8 release, but members of the JCP seem eager to avoid another long interval before the next release,unofficially pegging the release by the end of 2012. “We don’t want to wait another four years or five years between 7 and 8,” Little said.

Oracle itself has been coming under increasing scrutiny for how it handles Java. Various parties have pointed out that it shipped Java 7 with known bugs.

“At times I think Oracle speaks with multiple tongues,” Little said. “Sometimes the Oracle people I talk with really want to do the right thing, not trying to run an open-source project like a closed-source project.”

Other times, however, Little has found Oracle will conduct itself in a way that goes against these principles. He pointed to how in 2010 Oracle changed, without input, the governing bylaws for the OpenJDK project, which maintains an open-source version of the JDK. As a result, Red Hat lost its place on the steering committee, “despite the fact we were contributing so much code,” Little said.

“We’re involved with quite a few open-source projects. The whole way in which that way was handled was not very open source to us,” Little said. Oracle declined to comment for this article.

In many ways, Java 8 will be the true test of how Oracle manages a complex open-source project, one with many contributors from so many competing interests.

Veri Depolama:Yoğun Dijital Medya Talebi

PCIe Going Mainstream

Solid-state storage analyst Jim Handy of Objective Analysis told eWEEK his firm is forecasting that the PCIe interface will become dominant in the enterprise SSD market in 2012, with unit shipments greater than the combined shipments of its SAS and Fibre Channel counterparts. PCIe (peripheral component interconnect express) is a computer expansion-card standard based on point-to-point serial links rather than shared parallel bus architecture. It is designed to replace the older PCI, PCI-X and AGP standards.

Virtual Machine Image Cloning

Oracle has a leg up on this one. Its new VirtualBox 4.1 includes a new virtual machine cloning facility — one of the first on the market. A regular VM snapshot is a child of the current virtual machine, but that’s not something that can independently grow afterwards. With a clone, you have a new entity that can then have its own life and, subsequently, its own data snapshots, said Wim Coekaerts, Oracle’s senior vice president of Linux and Virtualization Engineering.

Automated Disaster Recovery

Getting data stores reconnected with systems and getting those systems back up and running after a power outage is a bear that can take days. Whereas in the past this process was manually done, the software now is smart enough to get large portions of a virtualized system back online much faster and with less effort. So enterprises are checking this out very closely. The ability to have automated, fully tested disaster recovery is one of the key drivers for many organizations to virtualize their most important applications.

Storage Pooling

This came to the fore in 2010 at Sepaton and is now gaining momentum. Pooling is an approach to storage virtualization that delineates specific areas of the storage system to be dedicated to specific data flows to enable more efficient multitenant service deployments. Virtualized storage systems break files into chunks of data that are dispersed into numerous data center or storage locations and reassemble them on demand. Keeping data file chunks closer together in pools is said to provide faster reassembly of file chunks.

Simplified Manageability of Cloud Storage

As different vendors clamor to be part of the cloud, unified management of the entire technology stack is critical. Whether public or private, tying together the different infrastructure layers—including applications, VMs, systems, networks and storage—with a comprehensive set of management tools reduces complexity by providing end-to-end service visibility, performance monitoring and automated provisioning.

Unexpected Storage Issues in Virtual Environments

Users discover that server virtualization can actually drive up higher storage costs, due to the fact that I/O patterns in servers that host VMs are significantly more random—and write-intensive than in the dedicated physical application servers. Increased randomness causes HDDs to run slower in terms of IOPS. This is why a storage configuration that seemed to perform fine when it was attached to physical servers all of a sudden appears to slow down when it’s attached to VMs. So you start adding more spindles and storage costs go up. (Thanks to storage analyst Eric Burgener for this one.)

Increased Need for New DR Packages

The number of applications and amount of data in virtual environments will grow significantly in 2011, increasing the need for disaster recovery systems that protect these applications. A recent survey found little more than half of the data within virtual systems is regularly backed up, leaving plenty of room for improvement.

Deleting Unimportant Data Becoming Critical

Storage administrators must lose their “pack rat” mentality and categorize what information is most important. The near-infinite level of data retention is causing storage costs to skyrocket. This factor vastly increases data recovery times and causes e-discovery nightmares across enterprises of all sizes. Enterprises are re-evaluating their retention needs and automate their information management strategy to keep backups for 30 to 60 days, archive for long-term storage and delete everything else.

Cloud Storage Is Growing Up

The cloud is greatly changing the way services are now delivered. More enterprises will leverage public and private clouds as they become highly available. As we get deeper into the year, enterprises will require the ability to manage storage resources, whether they’re local, campus-wide, multi-campus, global or in the cloud.

Hybrid Cloud Archiving Models Becoming Common

The hybrid cloud archiving model is being adopted to allow enterprises to use hosted messaging services while keeping their archives on-premises to drive cost out of the discovery process, maintain strict access to data and define who is searching it and where they are sending requests.

Bulut Bilişim Sağlayıcıların Değerlendirilmesi: Ekosistem Önemlidir

The number of tools, plug-ins, and developers can really matter when evaluating cloud vendors, it’s all about the ecosystem.

By David Taber
Tue, August 09, 2011
CIO — It’s axiomatic that in software of any complexity, the ecosystem of plug-in products, tools, compatible APIs, and developer community can become really important. In certain software product categories, the importance of the ecosystem can swamp any feature advantage that an upstart product may have, leading to what economists call a natural monopoly.

This doesn’t apply to all product categories, though. And in very mature technologies, it is possible to unseat the established leader’s ecosystem with a “good enough” substitute. Think “The Innovator’s Dilemma,” and then think Linux, Open Source, and Google (GOOG) docs.

But if you look at cloud computing, there’s no part of it that could be called “very mature.” The argument can be made that the cloud is all based on Web services, so the ecosystem doesn’t matter as much as it did with traditional software. But that argument is naïve, at best: at the detail level, cloud vendors’ APIs are proprietary, and learning curves can be quite steep. And that ain’t gonna change.

So the number of tools, plug-ins, and developers can really matter when evaluating cloud vendors. Where in the clouds is the ecosystem critically important? The general characteristics of these segments are:

• Technical platforms, such as integration, logging, development, or deployment
• Social Networking platforms — the usual suspects
• Advertising and gaming networks — the usual suspects
• Commerce platforms, such as Amazon, eBay (EBAY), or PayPal
• Services that are toolkits disguised as applications, such as Google or Salesforce.com

For cloud vendors that span two or more of these characteristics, there’s a doubling of the ecosystem’s impact. The valuation of Facebook and LinkedIn doesn’t come just from the number of eyeballs.

At the other end of the spectrum, there are lots of cloud services where the ecosystem isn’t critically important, such as e-mail, storage, news feeds, or photo sharing. And certain kinds of cloud apps such as invoicing, banking, or HR can get away with just a couple of connectors to popular accounting packages.

Measuring the Size and Quality of the Ecosystem

In any vendor competition, there’s the stuff that counts and there’s noise. The same goes with the ecosystem. For example, Microsoft (MSFT) can probably claim the most APIs of any vendor, the largest developer community, the most plug-in products, and the most consultants. But almost none of that applies to the cloud at this point, and nobody thinks they have the strongest cloud ecosystem.

So the first part of measuring the strength of the vendor’s ecosystem is clearing away all the obvious marketing chaff. Next step is to look only at the part of the ecosystem that’s relevant to the cloud service you will actually be using. What remains still needs to be vetted, as there will plenty of obsolete or uninteresting “information” about the ecosystem. For example, you may find 100 vendors who are nominally partners, but if only 20 of them are in your country and you’ve never heard of them before, some additional scrutiny is warranted. Likewise, you may find lots of partner products and services that may not have been updated in a long time. A strong ecosystem has vendors who have not only been there a while, but have released several versions of their products or services. If the ecosystem has a vendor ranking and rating system (Salesforce.com’s AppExchange is a great example of this), look for the quality and recency of customer feedback.

The two major axes for measuring the ecosystem are products and people. In my experience, the number of people committed to the ecosystem is more important in the long run than the product. If there is plenty of demand and a good supply of practitioners, the plug-in and add- on products will be forthcoming.

Handicapping the Early Scramble

It can be tricky to evaluate cloud vendors when the category is in its early days and there is no clear winner, either in features or ecosystem. If the cloud category you’re looking at is strongly impacted by ecosystem effects listed above, you need to gauge:

• Current size and growth rate of developer community
• Relative happiness of the developer community (as indicated by posts into the community forums, number of job/consulting openings, etc.)
• Size and growth of the number of plug-in products or services
• Number, quality, and profitability of vendors participating in the ecosystem
• Number, scope, quality, and documentation of relevant APIs
• The cloud vendor’s investment in the quality of the platform and the growth of the ecosystem
• Number of staff the cloud vendor has dedicated to that growth

This might seem like you’re a Wall Street analyst trying to predict the future. And in a way, you are—so it won’t hurt for you to see if any of them has opined on the vitality of the cloud vendors in the category you’re working with.

Akıllı Şebeke Teknolojileri

Özellikle Amerika Birleşik Devletleri yaşadığı enerji kesintilerinden sonra (Blackout) yüksek sesle sormaya başladı. Şebekemiz problemli mi? Bu kadar büyük çaplı bir kesinti nasıl oluşabilir? Niye arızalar lokalize edilemiyor? Böylece 1883 yılında kurulmaya başlanan elektrik şebekelerinin mevcut duruma yeteri kadar uyum sağlayamadığı anlaşıldı ve mevcut şebekelerin, dikkatli bir mühendislik yapılarak komple yenilenmeye ihtiyaç duyduğunu belirlendi.
1.2. “Smart Grid” nedir?
Smart Grid çalışmalarının başlangıcı ilginç olarak 1980 yılının sonlarında bir İsrail pilotunun kullandığı F15 savaş uçağının yaşadığı probleme dayanmaktadır. Pilotun beraber uçtuğu arkadaşının oluşturduğu bir ters hava akımı nedeniyle F15 sağ kanadının kullanımını %90 oranında kaybetti. Sadece kontrol yüzeylerini kaybetmekle kalmadı, aynı zamanda uçağı düşürebilecek bir simetrisizlik oluşturdu. Başarılı pilot uçağı zorlukla indirmeyi başardı ancak McDonnel Douglas (yeni adıyla Boeing) firması uçağı bir dizi dinamik testlere tabi tutmak için rüzgar tüneli çalışmalarını gerçekleştirdi. 1995-1998 yılları arasında Washington Üniversitesindeki bir araştırma grubu optimizasyon ve kontrol projesi olarak bu olayı inceledi. NASA’nın da desteklediği bir projede kendini kendini iyileştirebilen ve varolan sistemde meydana gelebilecek “k” kadar olayda (n-k) bile dengesini düzenleyebilecek akıllı bir yapıyı, yapay sinir ağları yöntemiyle (neural network technology) geliştirdi. F15’teki bu çalışma, EPRI (Electric Power Research Institute) ve CIN/SI (Complex Interactive Networks/Systems Initiative) gruplarının elektrik güç endüstrisi için geliştirdiği programlara öncülük etti. [1] Güç şebekesi açısından düşünüldüğüne, sistemdeki tüm noktaların uyanık, tepkili, adaptif, maliyet açısından uygun, çevre ile dost, eş-zamanlı, esnek, kuvvetli ve her sistemle bağlanabilen bir yapıda olması AKILLI yapıyı oluşturmaktaydı [2].
Zaten dinamik yapıya sahip olan elektrik enerjisi akıllı şebeke yolu ile canlanmakta, akıllanmakta ve yaşayan bir sistem haline gelmektedir. Ne olduğunu bilen, ne olması gerektiğini hesaplayan ve harekete geçen yapıdadır.
Bugünkü kullandığımız iletim yapısı 125 yıl önce dizayn edildiğinden, güç eksikliklerini hissetmemek, karanlıkta kalmamak, güvenilirlik ve verimin arttırılması için şebeke “upgrade” edilmelidir. Şebeke modern, güncel ve akıllı bir yapıda olmalıdır. Sürdürülebilir enerji kaynağı için yenilenebilir enerji kaçınılmazdır. Diğer hiçbir tür enerji kaynağı sürdürülebilir yapıda değildir. Ancak rüzgar, güneş, dalga ve termal enerji gibi yenilenebilir kaynaklar, dünya varolduğu sürece varolmaya devam edecektir. Asıl sorulması gereken soru ise, sürdürülebilir enerji amaçlarımıza ne kadar ulaşabildiğimizdir ve sürdürülebilir bir yapıya sahip olmamaya kimin gücünün yetebileceğidir.
Yakın gelecekte yenilenebilir enerji kaynaklarının global kullanımı çok hızlı gerçekleşmeyecektir ancak iletim ve dağıtım sistemlerinin bunlara hazır olması akıllı şebekeler yoluyla olacaktır. Mevcut şebekelerin akıllı hale getirilmesinin bir çok faydası bulunmaktadır. Kyoto protokülüne bağlı olarak CO2 emisyonlarının sera etkisi oldukça çarpıcı bir biçimde ifade edilmektedir. Örneğin Amerika’da akıllı bir şebeke yapısına sahip olunmasının karbon emisyonlarını %25 oranında aşağı çekeceği hesaplanmıştır. CO2 emisyonu açısından ise 160 milyon hektar orman daha temiz bir hava için çalışabilecektir. Bu yaklaşık 130 milyon aracın yollardan çekilmesi ile eşdeğerdir. Akıllı bir şebeke, tek bir noktadan olmayan yolculuktur. 2030 yılında dünya enerji ihtiyacının %30 artacağı düşünüldüğünde sorulması gereken soru mevcut karbon emisyonlarının arttırılmadan bu büyümenin nasıl karşılanabileceğidir [3].
1.3. Bileşenleri ve teknolojileri nelerdir?
Bir akıllı şebekenin bileşenleri ve teknolojileri, Amerika Enerji Departmanına göre (DOE) aşağıdaki yapılara sahip olmalıdır.
Akıllı Uygulamalar: Önceden belirlenmiş kullanıcı tercihlerine bağlı olarak gücün ne zaman tüketileceğini belirler. Bu da elektrik üretimi ve emisyonlar üzerinde oldukça önemli bir etkiye sahip olan tepe (peak) yüklerini indirger. Üretimdeki en önemli maliyetlerden biri bu tepe yükleri karşılarken oluşur, devreye girip çıkan ek santraller söz konusudur. Önceki test verileri, elektrik kullanımı ve bu kullanım bilgisinin kullanıcıya verilmesiyle, tepe yüklerde %25 oranında tasarruf sağlandığını göstermiştir.
Akıllı sayaçlar: Akıllı sayaçlar, tüketici ve gücü sağlayan kuruluş arasında iki yönlü iletişimi sağlar ve ödeme verilerinin toplanmasını, güç kesintilerinin belirlenmesini ve tamircilerinin hızlı bir şekilde doğru lokasyona yönlendirilmesine imkan verir. Mevcut şebekelerde arızalar tüketicilerin telefonu yoluyla belirlenip, ekiplerin yönlendirilmesi sağlanmaktadır. Bu da 1-2 saat gecikmeye neden olabilmektedir.
Bütünleştirilmiş haberleşme: Veri toplama (SCADA-Supervisory Control and Data Acquisition), koruma ve kontrol konseptleri, bütünleştirilmiş bir sistemde kullanıcının akıllı elektronik cihazlar ile etkileşimini sağlar.
Hissetme ve Ölçme: Şebekenin sağlıklı olduğunu ve bütünlüğünü koruduğunu tanımlayacak verileri toplar. Akıllı bir şebekede, şebekenin sağlığı, kritik noktalar anlık olarak yansır. Hattın sıcaklığı, yüklenme seviyesi, rüzgar hızı, yerden uzaklığı (yüklendikçe azalır) izlenebilecektir. Otomatik okumayı, online enerji maliyetinin bilinmesini ve enerji hırsızlığını engeller. Şebekedeki kaçak oranları düşünüldüğünde böyle bir yapıya sahip olunmasının önemi daha iyi görülür. Çünkü üretimi, iletimi, tüketimi ve kayıpları bilen bir yapı kaçakları kolaylıkla hesaplayabilecektir [4].
Akıllı istasyonlar: Güç faktörü performansı, kesici, trafo ve akü durumunun izlenmesi, kritik ve kritik olmayan işlem kontrolünü sağlar.
Akıllı Dağıtım: Kendi kedini iyileştiren, dengeleyici ve optimize edici yapıdadır. Otomatik izleme ve analiz etme özelliği ile hava durumu ve enerjisiz kalma geçmişine bağlı olarak arızaları tahmin edebilecek yapıya sahip sistemlerdir.
Akıllı Üretim: Şebekenin birçok noktasından alınan geri beslemeler ile, enerji üretiminin optimize edilmesi, gerilimin, frekansın ve güç faktörünün otomatik olarak ayarlanabilmesi için öğrenme özelliğine sahip güç üretimini tanımlamaktadır.
İleri kontrol metotları: Şebekenin durumunu analiz ederek tanımlayan ve tahmin eden cihazlar ve algoritmalar topluluğunu ifade etmektedir. Otomatik olarak düzeltici önlemler alarak enerji kesintilerini ve güç kalitesi problemlerini engeller ya da etkilerini azaltır [4].
1.4. Nasıl bir denge sağlanmalıdır?
Elektrik şebekelerinin en büyük zorluğu anahtarı açtığınızda operatörlerin talep ettiğini gücü vermek zorunda olmalarıdır. Bu her an her dakika yaşanır. Akıllı bir sistem, tüketiciye daha faydalı olmayacaksa görsel bir şovdan öteye geçemez. Akıllı şebeke kendini hızla iyileştirebilen, daha güvenilir ve daha esnek bir yapıya sahip olmalıdır. İşletme güvenliği de unutulmamalıdır. Rüzgarın esmediği ve güneşin parlamadığı durumda fosil kaynaklı üretimler tüketimi karşılamak zorundadır. Denge çok önemlidir [5]. Hava çok sıcaksa fotovoltaikler yağmur ve rüzgarlı ise rüzgar türbinleri çalışacaktır. Önemli olan güç eğrisini pürüzsüz bir şekle getirmektir. Akıllı şebekelerde bu dengeleme gerçek zamanlı dinamik olarak yapılabilmektedir. Akıllı sistemlerde hem dağıtılmış üretime hem de depolamaya ihtiyaç vardır. Önemli olan bu üretimin farklı yenilenebilir enerji türleri ile tek bir kaynağa bağlı olmadan sağlanabilmesidir.
1.5. Enerji kesintilerini önlemedeki etkinliği nedir?
2003 yılının Ağustos ayında ABD’de yaşanan enerji kesintisi, aşırı ısınma ve sistem çökmelerinin birbirini takip etmesi sonucu oluşmuştur. Ayrıca sistemin işletim operatörleri tarafından yeteri kadar iyi izlenememesinin de etkisi bulunmaktadır. Bu arıza sonucu enterkonnekte lokal şebekelerin ayrılması 50 milyon kişinin enerjisiz kalmasına neden olmuş ve Anderson Ekonomik Grubu’na göre bu da yaklaşık 8.2 milyar dolar bedel oluşturmuştur [6]. 2003 yılına yaşanan enerji kesintisinde eğer ABD’nin Cleveland bölgesi arızayı hemen açabilmiş olsaydı, yaşananan enerji kesintisi 50 milyon kişiyi değil, 1-2 milyon kişiyi etkilemiş olacaktı [7]. Ancak bilinmelidir ki akıllı sistemlerde, dijital şebeke yapısında birçok iletişim sistemi olacağından, dış saldırılara da açık olacaktır. Bu nedenle şebeke güvenliğinin de sorgulanması gerekmektedir.
Tüm enerji sisteminin verimli ve güvenilir kullanılabilmesi amacıyla akıllı şebekelere ait altyapının bilinmesi ve uygulanmaya başlaması gereklidir. Ancak bunlar yapılırken şebeke güvenliği de düşünülmelidir.
1.6. Akıllı bir yapı için şebeke ihtiyaçları nelerdir?
Akıllı bir yapı enerjisizliği engellerken, enerjisiz kalınmışsa tekrar toparlanmayı hızlandırır. Ayrıca hat açmalarını-kapamalarında daha iyi performans sağlanır. Akıllı şebekeler ayrıca, yenilenebilir enerji kaynaklarının kullanımının ve dizaynının da optimize edilmesini sağlar. Burada bağlayıcı nokta enerjinin üretildiği ve tüketildiği nokta ile, bunların arasındaki iletim hattının yeterliliğidir. Örneğin Orta Amerika rüzgar açısından uygun olmasına rağmen mevcut şebekenin, gücü uzun mesafelere götürebilme yetersizliği bu gücün kullanılmasını engellemektedir.
Şebeke ihtiyacının diğer bir konusu da depolama sistemlerinin gerekliliğidir. Bunun nedeni kaynak-tüketim mesafesinin değişken olması ve  hava tahmini problemleridir. Yenilenebilir enerji kaynaklarının şebeke bağlantısındaki eksikliklerin, enerji depolama sistemleri ile çözülebilmesinden ziyade bir grup araştırmacı da daha iyi planlanmış ve daha iyi yönetilebilen bir sistemin, yenilenebilir enerji kaynağı katkısını daha kararlı bir hale getireceğini düşünmektedir. Ancak bilinmelidir ki her ikisinin birleşimi, yani hem depolanabilen enerji hem de hızlı ve akıllı bir şebekenin varlığı en optimum çözümü oluşturacaktır. Depolama açısından süperiletkenlik konusu önemli bir konudur. Süperiletkenlik, bir malzemenin belirli bir derecede “0” direnç göstermesi ile oluşmaktadır [6].
Süperiletkenliğe sahip olunması, enerjinin depolanabileceği anlamına gelmektedir. Ayrıca yenilenebilir enerji kaynaklarının tüketim merkezlerine uzak olması, düzenli olmaması ve hava tahminin yeteri kadar doğru yapılamaması nedeniyle, enerji depolama sistemlerinin de önemi giderek arttığından 2007 yılında 2,4 milyar $ olan enerji depolama pazarının 2012 yılında 600 milyar $ olması beklenmektedir.
1.7. Koruma koordinasyonu ve haberleşme yapısı nasıl olacaktır?
 
Yenilenebilir enerji kaynaklarının ve akıllı sayaçların ilavesi ile değişebilecek diğer bir yapı da mevcut güç akış yönleridir. Dağıtılmış üretim, sistem korumasında kaynak tarafını değiştirebileceğinden, koruma filozofisi ve koordinasyonunun detaylı incelenerek revize edilmesi gerekmektedir. Bu da koruma ve koordinasyon mühendislerinin kendini yeniden revize etmesini gerektirir.
Yenilenebilir enerji kaynakları ilavesinde karşılaşılabilecek durumlardan bazıları şu şekilde özetlenebilir.
  • Güç akışının yönü değişebildiğinden, trafo kademe değiştiricilerinin çift yönlü kontrolünün gerekliliği,
  • Artan arıza akımları sonucu arıza yolunda oluşabilecek yanlış açmalar. Sigorta-kesici kombinasyonlarında sigortayı koruyacak koordinasyonun bozulması.
  • Trafo bağlantı gruplarına göre adalaşan bir yenilenebilir üretim bölgesinde, işletme toprağından yoksun bir çalışmada oluşabilecek arızalar ve bu arızalarda meydana gelecek gerilim yükselmeleri ve etkilenebilecek sistem elemanları [8].
Birçok haberleşme protokolü arasında günümüzde en öne çıkan protokol IEC 61850’dir ve smart grid yapısı ile ortak özellikler göstermektedir. IEC 61850 gibi bu yapıya uyabilen farklı haberleşme protokolleri ve sistemleri de mevcuttur. IEC 61850 yapısında tanımlanan IED’ler (Intelligent Electronic Device) ile hızlı ve dijital haberleşme sağlanmaktadır. Haberleşme mesafesine bağlı olarak optik ya da kablo tercihi yapılır. Tüm rölelerin bireysel adresleri mevcuttur. Bu adresler bilgisayar sistemlerindeki gibi IP numaralarına sahiptir ve bu IP numaraları üzerinden bütün röleler izlenebilir. Haberleşme 100Mbit hızındadır ve istasyon içinde GOOSE (Generic Object Oriented Substation Event) mesajlaşması mevcuttur. Bu mesaj tüm istasyona yayınlanır. Her mesajın içinde de bir MAC adresi vardır ve bu adres hangi rölenin bu mesajı alacağını belirler. Bu mesajlaşma açma, kapama, bloklama ve izin gönderme işlmelerini çok hızlı bir şekilde gerçekleştirebilir. İstasyon dışına bilgi gönderimi ve istasyona bilgi alımı ise ethernet anahtarı üzerinden yapılır [9,10].
1.8. Neden şimdi?
Akıllı bir şebeke için trafolar, röleler gibi tüm sistem elemanlarının akıllı olması gerekmektedir. Koruma ve haberleşme teknolojisinin, elektromekanik yapıdan dijital yapıya geçmesi gerekir. Ayrıca yüksek band seviyesine sahip yüksek hızlı iletişim gereksinimi vardır, çünkü tüm sistemin birbiri ile haberleşmesi gerekir. Bu kadar büyük sistem ve haberleşme ile başa çıkabilecek (saniyede milyonlarca veri) bir bilgisayar gücü de gerekmektedir. Bu koşullar günümüzde artık sağlanabilir durumdadır. Dijital röleler, fiber teknolojisi, kablosuz iletişim gibi teknolojik gelişmeler akıllı şebekeleri mümkün kılmaktadır.
Hazır olunan diğer bir nokta ise senkronize fazör ölçümlerinin ve FACTS sistemlerinin uygulanabilirliğidir. Böylece oluşan problemler kullanıcılardan önce bilinebilecek ve enerji kesintilerini oluşturan yüklenmeler ve dalgalanmalar engellenebilecektir [5,11].
 
1.9. Gelecekteki yapı nasıl olacaktır?
 
Akıllı sistemlere geçişe karar verildiğine hemen ertesi gün böyle bir yapıya geçilmesi mümkün değildir. Tam olarak geçiş 20-30 yıllık bir süreç bile alabilir, ancak bazı önlemler ile bu sürecin kısaltılması mümkündür. Akıllı sistemler için yasal düzenlemeler, standart yapılar belirlenmeli ve çerçevede tüm insanların olduğu bilinci verilmelidir. İnsanlar konu ile ilgili bilinçlendirilmelidir. Kısa, orta ve uzun vadeli planlar yapılmalıdır. Mevcut sistemi alıp atamayacağımızdan, burada önemli olan ve yapılması gereken bundan sonra sisteme entegre edilmesi planlanan yapıları akıllı sisteme uygun entegre etmektir [12].
Yapılan bir çalışmada, tam smart grid yapısı kullanıldığında ABD’de kullanılan arabaların (elektrikli arabaların olacağı varsayımıyla) %85’inin hiçbir ek santral kullanılmadan mevcut şebekeden şarj olabileceğini göstermiştir. Bunun nedeni enerjinin kullanılmadığı gece saatlerinde arabaların şarjda olacağıdır. Bunlar soğuk birer görüş değildir ve oldukça yakın bir geleceğe işaret etmektedir [5].
KEMA, ABD’de 4 yıl içinde oluşması öngörülen 16 milyar $ teşvikin, 64 milyar $’lık akıllı şebeke ile ilgili projelere katalizör görevi göreceğini ve 150,000’i 2009 yılının sonuna kadar olmak üzere 280,000 yeni iş imkanı oluşacağını öngörmektedir [13].
1.10.        Dünya’daki uygulamaları nasıldır?
 
Avrupa
 
Amerika’da birçok örneği bulunan akıllı şebeke bileşenlerinin Avrupa’da da bir çok uygulaması bulunmaktadır. Avrupa’nın güneş enerjisini güneyden, dalga enerjisini batıdan ve rüzgar enerjisini kuzeyden getirecek akıllı şebekesini nasıl kuracağını ifade eden “European Technology Platform (ETP) Smart Grids” raporu bulunmaktadır. Güncel bir yayına göre (Dispower, Distributed Generation with High Penetration of Renewable Energy Sources), Avrupa şebekesi yakın gelecekte dramatik bir değişikliğe gidecektir. KYOTO protokolüne göre Avrupa, yenilenebilir enerji kaynaklarından sağladığı üretimi 2010 yılına kadar 2 katına çıkaracaktır. Bu yayına bağlı olarak bazı pilot projeler başlatılmıştır [14].
Almanya’nın “DENA-I” isimli çalışmasına göre Almanya hükümeti 2008-2012 yılları arasında karbon emisyonlarının 859 milyon ton/yıl’dan, 846 milyon ton/yıl’a düşürmeyi hedeflemektedir. Bunun için 2004 yılında %10 olan yenilenebilir enerji kaynaklarının oranının 2010’da %12.5, 2020 yılında %20 olacağı planlanmıştır. 2020’deki bu oran daha sonra yayınlanan “DENA-II” çalışmasında %30’a çıkarılmıştır. Asıl amaç ömrünü dolduran santrallerin yerine belli bir oranda yenilenebilir enerji kullanabilmektir. Öncelikle zayıf noktalar hedeflenmiş olup, bunlar için gerekli şebeke yenilenmesi ve büyümesi için yeni YG hatların ilavesi (2015-850km), aktif ve reaktif güç kontrolü planlanmıştır. 2015’e kadar tüm sistemin kararlılık ve güvenilirlik kontrolü yapılacak olup, kritik şebeke durumlarının belirlenmesi hedeflenmiştir [15].
Bunların dışında “DENA II” çalışmasında, rüzgar çiftlikleri için güç çıkışı kontrol (faz kaydırıcılar) sistemleri, yeni depolama sistemleri ve mevcut depolama sistemleri kontrol yönetimi, yük kontrol yönetimi ve frekans yönetimi de bulunmaktadır.
Asya
Hindistan dünyadaki en zayıf şebekelerden birine sahiptir. Hindistan Enerji Bakanlığı’na göre dünyadaki en büyük iletim ve dağıtım kayıplarına sahip durumdadır (%26, bazı bölgelerinde %62). Bu kayıpların, kaçaklar dahil edildiğinde ise %50 olduğu ifade edilmektedir. Bu nedenle 2008 yılındaki “Smarts Grids India” konferansı ile akıllı şebekeler üzerindeki çalışmalar başlatılmıştır.
 
Çinde ise yeni üretimler ve yeni hatlar çok hızlı oluşturulmaktadır. Dolayısıyla akıllı ve gelişime musait bir şebekeye en fazla ihtiyacı olan ülkelerden biri konumundadır. Çin devleti, her hafta, Dallas veya San Diego’daki tüm ev uygulamalarını karşılayacak büyüklükte kömür santralleri kurmaktadır. Çin’de akıllı şebeke çalışmaları 2007 yılındaki MIT forumundan sonra başlatılmıştır [17].
SONUÇ
 
Her ülkeye ait farklı şebeke yapısı olduğundan, gerek akıllı sistemler gerek yenilenebilir enerji kaynakları entegrasyonunda sistem analizleri devam ettirilerek en uygun koşullar araştırılmalıdır. Kendi şebekemizin dinamik analizlerinin alt yapısı oluşturularak, rüzgar ve güneş gibi yenilenebilir enerji sistemlerinin yük akışı ve kısa devre katkısının yanında, dinamik yapıları da incelenmelidir.
Bunların yanında, gelecekte artacak yenilenebilir enerji katkısı da düşünülerek, yön değiştirebilecek güç akışları ve adalaşma konumları için koruma koordinasyonun alt yapısı hazırlanmalı, iletişim protokolleri de gelecekteki şebeke yapısına uygun seçilmelidir. Uzaktan enerji izleme ve ölçme yapısı dizayn edilmeli, modern ve hızlı olmasına dikkat edilmelidir. Aktif ve reaktif güç kontrolü yapabilen sistemler için şebekenin uygun noktaları ve farklı senaryoların da incelenmesi gerekir.


We are having a very hot summer here in Texas this year, with temperatures above 100F (37.8C) for over 30 consecutive days already. You can imagine the electrical power grid being pushed to the limit due to air conditioning demand. But another area related to power grids is also hot, and that is the Smart Grid. Just last month, Silver Spring Networks filed for an IPO to raise $150M. This Smart Grid network communications company that had only $58,000 revenue in 2008, grew phenomenally achieving $46.7 Million revenue in 1Q 2011 alone. This looks like one hot market!Smart Grid is an ecosystem at the nexus of energy, power, mobile and ICT sectors. It provides opportunities  for application of innovative mobile, broadband and ICT technologies in modernization of transmission and distribution segments of electric grid, making it energy efficient and cost effective.About five years ago Smart Grid was unknown and nowhere on investors’ radar. But by 2008, we started to see Smart Grid capturing investors’ interest. Hundreds of millions of dollars were invested in all areas of Smart Grid during 2009. This growth continued in 2010 with $769 Million of VC investments, and close to $200 Million in first half of 2011.

Factors driving this investment boom in Smart Grids include:

  • government regulatory mandates in North America, Europe, China, India and Brazil;
  • utilities’ cost reduction efforts,
  • deployment of large scale renewable energy production systems,
  • enhancements in energy storage technologies and systems,
  • proliferation of wireless communications,
  • evolution in electric vehicle charging systems, and
  • increasing number of consumers engaged in two way energy supply business models.

VCs have been looking to Smart Grid as a capital efficient alternative to other investments in the clean technology sector. With the availability of up to $200 Million in the US Government’s Smart Grid Investment Program, big players like IBM, Intel, Siemens, Oracle and Cisco started vying for a slice of the market through investments and acquisitions.

Pike Research’s December 2009 report projected a $200 Billion global investment in Smart Grid between 2008 and 2015, with 84% of the investment in grid automation and optimization, 14% in smart meters, and only 2% in electric vehicles. Goldman Sachs’ 2009 prediction was equally strong for investments in global Smart Grid transmission and distribution systems. The jury is still out on whether global investment will reach $200 Billion by 2015. Even if it does not, the sector obviously attracts a lot of funding. In particular, countries like India, China and Brazil which experience high energy demand and have legacy power utility networks are likely candidates for the above mentioned investment.

About three decades ago, the telecom networks went through a massive transformation from the analogue networks to digital networks, and finally to IP networks more recently. Power utility networks are undergoing similar massive infrastructure changes, with the same types of challenges as well as new innovation and breakthrough opportunities.

More and more utilities like PG&E (Pacific Gas & Electric), APS (Arizona Public Service), One Hydro, Hydro Quebec, SCE (South California Edison),TXU, Austin Energy and Oncor are investing in new technologies to optimize their antiquated grids. With the end-to-end digital, two-way intelligent communications infrastructure, utilities will be able to

  • capture real time data on energy transmission and consumption,
  • reduce peak consumption by shifting demand loads, and
  • boost efficiency through improved diagnostics

The anticipated end results are the ability to serve more customers with less energy supply, and

increasing revenue through value added services.

.

While advanced metering infrastructure (AMI) has indeed captured most of the Smart Grid limelight over the past few years, emphasis is now shifting to distribution automation (DA), spurred by market entry of plug-in electric vehicles and distributed generation (DG). A key component of distribution automation is the two way intelligent communications network. Current wireless and non-wireless technologies (ZigBee, Z-wave and PLC) deployed in this market space support only one way communication. While ZigBee Alliance and Z-Wave have been standardizing and promoting the use of their low power, low bandwidth wireless technologies, many AMI vendors have built-in GPRS/GSM capabilities in their smart meters for backhaul connectivity. Bi-directional communication networks fromOn-Ramp Wireless, and Trilliant are gaining momentum in the market. A major drawback of these wireless networking solutions is the use of licensed spectrum, hence the higher cost.

With the use of unlicensed TV white spaces for broadband data communications, two way intelligent communications for Smart Grids can be leveraged at lower cost. Several companies likeSpectrumBridge, Microsoft, Google and Intel have been actively working with the FCC on standardization of unlicensed white TV spaces for wireless broadband communications. According to Peter Stanforth,CTO of SpectrumBridge, TV white space radio technology is projected to provide about 3x to 5x coverage increase compared to Wi-Fi, as well as simpler RF radio hardware and lower cost.

In June 2011 Smart Grid white TV space base radio manufacturer Neul started a trial in Cambridge, UK, in alliance with BT, BBC, BskyB, Microsoft, Nokia, Samsung and SpectrumBridge. The objective is to explore use of TV white spectrum for Wi-Fi urban mobile communications and its use in meter-to-NOC communications in Smart Grids.

Non-wireless technologies based on Power Line Communications have shown significant market success with more and more utilities in Canada, China and Europe, because of its low cost backhaul from smart meters to the concentrator data centers.

According to a recent report from Pike Research, worldwide DA revenues have increased significantly in the past few years, rising from $1.2 Bilion in 2008 to $2.7 Billion in 2010.  By 2014, the cleantech market intelligence firm forecasts that annual revenues in the sector will reach $10.4 Billion.

2008 and 2009 saw the VC community much more energized with $135 Million funding for GridPoint, $110 Million for Silver Spring Networks, $20 Million for SmartSynch, $12 Million Round B funding for Tendril Networks and investments of $40 Million or less in each of twenty-five other companies in the USA. In addition, those years saw numerous acquisitions, including GE acquired Mapframe to expand its portfolio of transmission and utility offerings; Smartsynch acquired Applied Mesh Technologies; and GridPoint acquired V2 Green.

According to Mercom Capital Group, VC activity continued to increase with almost $400 Million invested in the first half of 2010 followed by another $350+ Million in the first half of 2011. The biggest deals in 2011 have been so far in solar, electric vehicles, fuel cells and data management. The big winners in the first half of 2011 have been

  • Bloom Energy, a solid fuel cell manufacturer that received $100 Million funding from Morgan Stanley, Kleiner Perkins and NEA;
  • iControl Networks with $50 Million,
  • Transphorm  with $38 Million,
  • Smartsynch with 25.7 Million,
  • Gridpoint with $23.6 Million,
  • JouleX with $17 Million,
  • Chetas Control Systems with $13.5 Million and
  • On-Ramp Wireless with $11.5 Million.

A total of thirty companies received funding including Cuculus, a German developer of smart metering and home control products that received  financing from T Ventures, and Entelios of Munich that also received an undisclosed amount for its demand response for commercial and industrial customers.

Second quarter of 2011 was a block buster for merger and acquisition activity with an impressive $4.3 Billion paid in nine transactions. The most significant of these were the

  • acquisition of Landis+Gyr, an Australian smart meter manufacturer by Toshiba for $2.3 billion,
  • acquisition of Telvent by Schneider Electric for €1.4 billion and
  • acquisition of Energy Response Pty, the largest demand response provider in Australia and New Zealand, by EnerNOC.

Smart Grid investments and acquisitions are very much alive and kicking! The advent of innovative technologies in Smart Grid communications, distribution automation and energy management will continue to foster significant investments and market activities for at least the next decade.

Based in Dallas, Texas, Dr. Shobhaa Ravi is a member of the mSolve Partners team, and also Managing Director of Effective Strategeez LLC, a unique management consulting firm providing Smart Grid and Mobile Sector Industry Intelligence, Investment Guidance and International & Domestic Business Development services. Dr. Ravi can be reached at shobhaa@msolvepartners.com.

mSolve Partners LLC is an advisory firm that offers corporate and business development advice to companies in the mobile sector. We work with entrepreneurs, investors, and leaders of major corporations in the mobile sector to assist them in achieving their most important strategic and financial goals. mSolve has a team of seventeen professionals as well as twenty advisors distributed in major markets around the globe.

 

İşinizi Bulut Bilişime Taşımanın Artı ve Eksileri

As anyone who has downloaded a song off of iTunes on their Mac and then watched as the same song popped up on theiriPhone can tell you, cloud computing can be pretty cool.

But the cloud isn’t just for consumers. Entrepreneurs are finding they can get a business up and running quickly without having to buy servers or hire a CIO. Computing, like electricity or water, can be a monthly service that’s piped in at a fee.

It’s a relatively new model with lots of benefits and a few drawbacks — hence the strong interest. A Forrester Ressearch survey of small- to medium-size businesses found that 40% of businesses with 2 to 19 employees said using cloud service offerings was a “very high” or “high priority.” For medium-size businesses (20 to 1,000 employees), the figure was 25%.


The Benefits


Given that interest, such businesses should know what they’re getting into. Benefits include:

  • It’s scalable. If your business takes off, it’s easy to adjust your computing needs. Most cloud-computing is billed at a monthly rate, like a utility. (Though there are often discounts for “reserving” space on a yearly basis to cut costs.) So, if your business grows, you can just order more server space.
  • The provisioning cost is near zero. Chris Cera, CTO for Vuzit, a nine-person company in Philadelphia that makes document-viewing platforms, points out that with the cloud, you don’t have to set up a server and spend all the man-hours it takes to get one up and running.
  • It can save money in other ways. Ray Huff, president of Russell’s Convenience, a Honolulu-based chain of convenience stores, says he cut a lot of costs just by having everyone in his company use LotusLive, IBM’s cloud-collaboration software. Russell’s is in the process of building new stores, so a miscommunication could result in costly errors. With LotusLive, there’s a timeline, so everyone can see who last signed off and the whole team can be on the same page, so to speak. “We’re saving a lot of money,” says Huff, noting that previous communication consisted of “FedEx and airplanes” as well as emails.
  • There’s less IT infrastructure staff to manage. With cloud computing, you don’t need to hire a tech team, and a smaller team will save you money on payroll, benefits and more.

The Drawbacks


Of course, not all is rosy once you move to the cloud. Not for nothing was Gmail originally nicknamed “Gfail.” The downside of the cloud is that, just as with other utilities, when it goes down, you’re fairly helpless.

This point was illustrated on a grand scale when some of Amazon Web Services, the online retailer’s cloud computing arm, went dark in April, taking down HootSuiteReddit and Foursquare, among others. Vuzit, which is an AWS customer, wasn’t among the victims that time, but Cera says AWS has failed him before. “Sometimes it’s luck,” he says. “Many times we’ve been unlucky.” That was before before Vuzit got smart about using multiple geographic regions, Cera says.

Such outages, which, aside from price, appear to be the biggest knock against cloud computing, don’t have to be crippling. Cera and others recommend building redundancies into their systems and applications, which is the cloud equivalent of backing up your hard drive. But Cera acknowledges that sometimes that isn’t enough, either. “There are cases where even if you did everything right, you still would have gotten screwed,” he says. Of course, another way to minimize risk is to work with more than one cloud provider.

The other thing to keep in mind is cost. If your business is a startup, you may find that doing a cost-benefit analysis is tricky because there’s no track record. You’d have to imagine what it would have cost to buy the hardware and hire the staff and then assume everything went smoothly. Cera, who has looked at the numbers, says that there’s an easy answer to the question “Is the cloud cheaper or more expensive?” — “Yes.”

“Pound for pound, if comparing metal, the cloud ends up being more expensive,” he says. “But if you’re taking advantage of cloud features, I can guarantee it will be lower.” For his part, Cera says Vuzit spends less than $100,000 a year on cloud computing. He says one example of “taking advantage” is accurately estimating exactly how much computing you need and not buying too much or too little. If you buy your own hardware, you’ll probably initially buy too much and find yourself in a real bind if your business takes off and you have too little. Being able to adjust the amount like a thermostat may, like Cera says, wind up saving you money in the long run, but it will no doubt save you a lot of headaches as well.

Does your business operate in the cloud? Let us know your experiences in the comments below.

Microsoft Augmented Reality

Microsoft Eyes Augmented Reality

Published January 9, 2012 | By John Newman

In a move that makes eye color correction seem boring,Microsoft and the University of Washington have made major advances in bringing augmented reality to contact lenses. The augmented reality lens receives radio signals and transmits them via optical nerves directly to the brain. The process was successfully tested on a rabbit, and the research team has the go-ahead to begin human trials.

While augmented reality has thus far been treated as something of a fad by corporations not involved with video games or marketing, Microsoft insists that incorporating the technology into a lens will make it practical for multiple applications. Possible uses include using facial recognition technology to assist security and police forces, or a virtual desktop that retrieves and displays information in the blink of an eye.

The research team has even suggested that the augmented reality lenses might be used to treat blindness. Microsoft’s lenses don’t depend on vision to transfer information, they transmit it directly to the brain. Researchers theorize that the lenses could be used to stream an augmented reality feed to the brain allowing the blind to “see.”

Microsoft Experimental LensesMicrosoft and the University of Washington continue to experiment with augmented reality lenses.

Other obvious uses for augmented reality include virtual overlays of complex machinery, including color coding to make finding each part easier. The lenses could also act as a sort of virtual teleprompter to assist with speeches and presentations, or just to put up a couple of sticky note reminders. The lenses could, researchers believe, also be used in medicine as a non-invasive method of monitoring vital signs and even report blood sugar levels.

Daha Fazla Sanal Bilgi _ Tesco Augmented Reality ( Çoğaltılımış Gerçeklik )

Tesco Trials Augmented Reality to Reduce Online Returns and Encourage Engagement

Submitted by Nicolas Bapst on Fri, 11/18/2011 – 15:12
TescoAugmentedReality

Tesco is currently trialling augmented reality, both in-store and online in tests – the service allows shoppers to view 3D images of products on computer screens.

The trial, which is being conducted with Total Immersion’s partner and UK software firm Kishino, is aimed at saving on shelf-space in Tesco retail stores, since it entails less floor space to store bulky electronics.

The Augmented Reality experience presents 40 different Tesco products across a range of categories including entertainment, TVs and toys and gives customers a virtual 3D-view of these items at home by utilising their webcams and a marker.

The scheme has been on trial online since September and thus far Tesco claims it has helped reduce the number of returns because users were able to see the actual size and proportions of the product before ordering it.

A Tesco spokesman said: “This is a really exciting new technology which in this form is a relatively untapped opportunity in the UK. “Thanks to our work with Kishino, augmented reality will allow customers to be closer to our product and interact in a way that has never previously been possible.”

 

Initially the augmented reality technology will be installed at eight Tesco outlets, in Cheshunt, New Malden, Hatfield, Milton Keynes and the two stores in both Wembley and Borehamwood.

 

 

VMware Lisanslama Değişikliği Bulut Bilişim Sağlayıcılarına Sanallaştırmada Rekabetin Kapılarını Açıyor

Bazı VMware müşterileri yüksek fiyat ve VMware’in Haziran 2011 de açıkladığı bazı lisanslama değişiklikleri nedeniyle alternatif sanallaştırma ve bulut bilişim sağlayıcılarını araştırmaya başladılar.

 VMware, bu tepkiyedaha bir ay önce açıkladığı bu radikal fiyatlandırma planlarında gevşemeye giderek cevap verdi. Ama bunu yaparken sadece küskün müşterilerini yumuşatmaktan daha fazlasını yapıyordu. Bu değişiklik, VMware’in lider teknolojisini terk edip rakip sanallaştırma platformlarına geçmeyi aklından bile geçirmeyen büyük şirketlerin kendisini terk etmeye hazırlanmalarına karşı bir tepkiydi.

VMware bu değişiklikle aynı zamanda, veri merkezlerini sadece yüksek seviyede sanallaştırma olarak görmeyen , bunun yanında bulut bilişimi son kullanıcı şirketlerin istedikleri uygulamayı koşturabilecekleri birincil platform olarak konumlayan rakiplerine de bir cevap olarak görüyordu  ( ki VMware kendi varlığını tamamen veri merkezlerinin yüksek seviyede sanallaştırılması olarak görmüştü )

Örneğin CumuLogic, şirketlere iş yükleri süreçlerinin birçok değişik bulut platformunfda tek seferde  konfigürasyonu ve konuşlandırılmasını   otomatize edebilecekleri ve yönetebilecekleri şekilde dizayn edilmiş ürününün beta versiyonunu hayata geçirdi.

Klasik sanallaştırma oyuncularının ( VMware, Citrix ) ve bulut bilişim sağlayıcılarının ( Amazon, Terramark ) yaklaşımının tersine, CumuLogic uygulamanın üzerinde koşacağı bulut platformunu sağlamıyordu. CumuLogic çözümü, Java’da yazılmış bir uygulamayı alıp, buna  platform- as -a – service ( PAAS, platform servisi ) bulutu üzerinde koşacak kodu ekliyordu. PAAS, sanal makina, depolama için gerekli isterlerin açıklamaları, bilgisayar gücü, erişim kuralları ve veritabanı yönetimi gibi dış servisleri içermektedir. Daha sonra CumuLogic desteklediği bulut platformları üzerinde koşacak iş yüklerini konfigüre ediyor. ( CumuLogic’in desteklediği platformlar Amazon EC2, Eucalyptus, Cloud.com, Vsphere veya CumuLogic’in bir sonraki sürümü olan OpenStack)

Böylece müşteriler işyüklerini bulut platformuna gönderiyorlar ve CumuLogic’in monitor ve yönetim uygulamaları  ile performance yönetimi ve oluşabilecek problemlerin gözlemini yapabiliyorlar.

Lütfen altyapımı alın!

Altyapılarını dışkaynak modeline teslim ederek rahatlayan ve Java & Ruby uygulamalarına odaklanan şirketlerin sayısı arttıkça, PAAS sisteminin bulut bilişim eşitliğinde önemi gittikçe artmaya başladı.

Esasen, yüksek derecede sofistike kurumsal uygulamaların kiralanabilmesi ( örneğin Salesforce.com’dan CRM uygulaması ) veya bu tip uygulamaları otomotize ve zaman tasarrufu sağlayan geliştirme dilleri olan Ruby on Rails veya Java ile geliştirme şansı kurumsal uygulama geliştirme pazarını kökünden değiştirdi.

Bir uygulamanın mantığının oluşturulması, bu uygulamayı destekleyecek bir veri merkezinin donanım, yerleşim, sistem bakımı ve 7*24*365 bu veri merkezini işletmenin getireceği operasyonel maliyetlere kıyasla çok daha kolay ve ucuzdur. Bu maliyeti bypass edebilme veya büyük bir kısmını PAAS sağlayıcısına devretme fırsatı, kişiselleştirililmiş ve yüksek oranda otomatize edilmiş bilişim teknolojilerinin bundan önce ulaşabildiğinden çok daha fazla şirkete ulaşabilmesi sağlamaktdır.

%d blogcu bunu beğendi: