Categories
Pomorski Przegląd Gospodarczy

ICT – wojna globalnych trendów

Edwin Bendyk

publicysta tygodnika „Polityka”

Próbę analizy trendów informatyzacji należy zacząć od ponowienia pytania, które w 2003 r. zbulwersowało środowiska informatyczne. Does IT Matter? Czy informatyka ma jeszcze znaczenie? – zapytał wówczas Nicholas Carr, redaktor Harvard Business Review. Pytając, miał gotową odpowiedź: Nie, informatyka straciła znaczenie jako strategiczny czynnik budowania przewagi konkurencyjnej organizacji.

Nie zamierzam powtarzać dyskusji, jaką wywołały najpierw artykuł, a potem książka Carra. Przypomnę tylko główną tezę: zdaniem amerykańskiego prowokatora informatyka rozumiana jako IT, czyli technologie informatyczne, dojrzała w sensie technicznym na tyle, że stała się częścią normalnej infrastruktury organizacji, podobnie jak elektryczność, woda czy transport. Nikt już nie buduje przewagi konkurencyjnej, opierając się na elektryfikacji, co nie znaczy, że systematyczne przerwy w dostawach elektryczności nie mają wpływu na rynkową pozycję firmy. Podobnie, zdaniem Carra, jest z IT – rozwiązania techniczne uległy już tak daleko idącej standaryzacji, że ich wdrożenia przestały wymagać szczególnych kompetencji i stały się dostępne dla wszystkich. A co jest powszechnie dostępne, słabo nadaje się na czynnik budowania przewagi.

Kluczem jest wydobycie korzyści z istniejącej infrastruktury

Po pięciu latach od ogłoszenia obrazoburcza teza Carra została wsparta przez ciekawe badania, które jednocześnie pokazują, w którym kierunku zmierzać będą (lub powinny) wysiłki informatyzacyjne w najbliższym czasie. Organizacja Nokia Siemens Networks (NSN) zamówiła w London School of Business opracowanie, którego efektem jest nowy wskaźnik mierzący jakość wykorzystania technologii teleinformatycznych przez społeczeństwa. Jak wiadomo, podobne pomiary wykonuje wiele instytucji: World Economic Forum co roku publikuje ranking krajów na podstawie Network Readiness Index, The Economist Intelligence Unit przygotowuje e-Readiness Index. Opracowany dla NSN miernik nosi nazwę „The Connectivity Scorecard” i koncentruje się na pomiarze efektywności wykorzystania technologii ICT w aspekcie ich wpływu na poziom usieciowienia czy też zwiększenia intensywności komunikacyjnej w danym społeczeństwie. Poszukiwanie takiego wskaźnika jest wynikiem prostego założenia, że w gospodarce informacyjnej jakość przetwarzania informacji i komunikacji jest czynnikiem o bezpośrednim i kluczowym znaczeniu dla sprawności ekonomicznej.

Wyniki nie zaskakują, jeśli chodzi o kolejność w rankingu. Spośród 16 badanych krajów o gospodarkach napędzanych innowacyjnością pierwsze miejsce zajęły Stany Zjednoczone, ostatnie Polska. Zaskakujące okazało się jednak, że nawet lider zdobył zaledwie 6,97 punktów na 10 możliwych. W komentarzu do wyników można przeczytać, że mimo bardzo wysokiego poziomu infrastruktury ICT w najbardziej rozwiniętych krajach wciąż jeszcze wiele zostaje do zrobienia, jeśli chodzi o jej wykorzystanie dla uzyskania korzyści gospodarczych. Na przykład w doskonale „osieciowanej” Korei Południowej przedsiębiorstwa ciągle bardzo słabo wykorzystują możliwości, jakie stwarza telefonia IP.

Najogólniej wyniki The Connectivity Scorecard można podsumować stwierdzeniem, że infrastruktura ICT nie ma już znaczenia (pod warunkiem, że w ogóle istnieje – wynik Polski: 2,18 pkt pokazuje, że mamy słabą infrastrukturę, a tej, która jest, nie umiemy wykorzystać). Wciąż jednak nawet najlepsi nie potrafią do końca wydobyć tkwiących w niej korzyści. A skoro tak, to można się spodziewać, że rozwój ICT będzie się zwracać w kierunku innowacji zmierzających do uaktywnienia potencjału infrastruktury Sieci.

Dopiero Sieć to komputer

Przechodząc do wskazania kilku kluczowych trendów, znowu posłużę się przemyśleniami Nicholasa Carra. W swojej najnowszej książce „The Big Switch” lansuje on tezę, że w sensie technologicznym wkraczamy w epokę World Wide Computer. Upowszechnienie Internetu wraz z rozwojem takich firm infrastrukturalnych jak Google powoduje, że fizycznego sensu nabrało stare motto firmy Sun Microsystems: dopiero Sieć to komputer.

Tyle tylko, że jak zwykle wszystko potoczyło się inaczej, niż przewidywały plany marketingowe. Oto bowiem już od wielu lat korporacje takie jak Sun i Oracle promowały idee network computingu, grid computingu, utility computingu, by wymienić tylko kilka nazw. Uczestniczyłem w wielu spotkaniach pokazujących ekonomiczne zalety wdrożenia rozproszonych modeli przetwarzania i traktowania oprogramowania jak usługi. W istocie jednak to dopiero konsumenci odkryli moc ukrytą w Sieci w ramach rewolucji Web 2.0. Twórca tego pojęcia, Tim O’Reilly, proponuje następującą definicję: „Web 2.0 polega na wykorzystaniu Sieci jako platformy łączącej wszystkie sieciowe urządzenia; aplikacje Web 2.0 to rozwiązania czyniące najlepszy użytek z tej platformy: dostarczają oprogramowanie w postaci nieustannie dostępnej usługi, która staje się coraz lepsza w miarę korzystania z niej; wykorzystuje i łączy dane z różnych źródeł, włącza indywidualnych użytkowników, dostarczając jednocześnie narzędzia umożliwiające tym użytkownikom samodzielne przetwarzane danych i łączenie usług; tworzy efekty sieciowe poprzez architektury uczestnictwa”.

Wikipedia, Flickr, Facebook, YouTube, MySpace, Google Dokumenty to nazwy niektórych tylko dostępnych w Internecie usług i realizacji fenomenu Web 2.0. Niepostrzeżenie setki milionów ludzi całkowicie zanurzyły się w Sieci, powierzając jej wszystko: najintymniejsze informacje, dane finansowe, a także nieskończoną energię kreatywności. To nie pierwszy przypadek, kiedy konsumenci wyprzedzili rynek. Wcześniej podobna sytuacja wydarzyła się z telefonią IP. Mówiło się o niej już pod koniec lat 90., firmy takie jak Cisco prezentowały rozwiązania biznesowe. Biznes jednak nie reagował. Dopiero gdy pojawił się na rynku Skype, konsumencka wersja VoIP, lawina ruszyła.

Rozwój Web 2.0 i Skype ujawniają kilka bardzo ważnych trendów. Po pierwsze, infrastruktura ICT jest już rzeczywiście na tyle dojrzała, by stać się podstawą masowego świadczenia usług poprzez Sieć w modelu utility computing. Tyle tylko, że jednocześnie ujawniła się prawda, z której zaakceptowaniem tradycyjne instytucje: biznes, administracja, szkoły mają olbrzymi problem. Oto bowiem okazuje się, że w świecie, w którym „IT Doesn’t Matter”, głównym źródłem innowacyjności na rynku jest sam konsument. Wcześniej niż owe tradycyjne organizacje dostrzega on nowe możliwości, bardziej skłonny jest do ryzyka i dzielenia się swoimi pomysłami w otwartych modelach dystrybucji wiedzy (Wikipedia, Creative Commons, Open Source).

Władza prosumenta

Umasowienie i otwarcie innowacyjności będzie miało coraz większy wpływ na funkcjonowanie organizacji. Szybkość, parametr zawsze istotny w biznesie, w świecie Web 2.0 nabrał szczególnego znaczenia. Nie ma już czasu na długotrwałe doskonalenie produktu przed wprowadzeniem go na rynek, weszliśmy w epokę „perpetual Beta”. Polega on na wprowadzaniu produktów i usług, których cykl rozwojowy może być jeszcze niezakończony, i zaproszeniu konsumentów do współudziału w doprowadzeniu oferty do kolejnych etapów doskonałości. Metoda ta najlepiej sprawdza się w sektorze informatycznym, ale stosują ją coraz częściej firmy zajmujące się wytwarzaniem tak wyrafinowanych produktów, jak komputerowe skanery medyczne czy samochody. A efekty? Wymienia je O’Reilly:

  • szybszy „time to market” (czas dotarcia na rynek),
  • zmniejszone ryzyko,
  • bliższe relacje z konsumentami,
  • zwrot informacyjny z rynku w czasie rzeczywistym,
  • zwiększone zaangażowanie odbiorców.

By sprostać wymogom rynku zdominowanego przez prosumenta, trzeba zacząć stosować jego metody działania. Dlatego IBM, wykorzystując zestaw aplikacji Lotus, wprowadza system samodzielnego tworzenia biznesowych rozwiązań software’owych „na miarę”, które można budować samodzielnie techniką „mash-up”, czyli składania całości z funkcjonalnych cegiełek.

Model prosumencki przesuwa się do relacji business to business, czego spektakularnym przykładem jest Amazon.com. Serwis ten otworzył interfejs aplikacyjny, umożliwiając firmom trzecim tworzenie rozwiązań informatycznych budujących wartość dodaną do zasobów informacyjnych gromadzonych w repozytoriach Amazona. Z możliwości tej korzystają już tysiące przedsiębiorstw.

Otwieranie front-endu będzie niewątpliwie jednym z najważniejszych trendów, który zacznie także przenikać do świata aplikacji mobilnych, czego dowodzą inicjatywy takie jak Android (proponowana przez Google otwarta platforma oprogramowania dla urządzeń mobilnych).

Równolegle jednak do trendu polegającego na rosnącej otwartości komunikacji, na rynku trwać będzie rozwój technologii umożliwiających konsolidację i lepszą eksploatację kluczowego zasobu – informacji. Rozwój infrastruktury teleinformatycznej przesunął równowagę na rynku w stronę prosumenta, jednocześnie jednak coraz większy udział technologii w komunikacji i transakcjach powoduje, że automatycznie produkowane są olbrzymie ilości bardzo interesujących danych. Właściciele serwerów obsługujących ruch w Sieci zyskali dostęp do potencjalnie bezcennej wiedzy o coraz bardziej kapryśnym kliencie. Wydobycie tej wiedzy warte będzie każdych pieniędzy, nic więc dziwnego, że ostatni rok obfitował w megaporozumienia największych graczy na rynku IT, inwestujących intensywnie w rozwiązania business intelligence.

Decydujący konflikt

Coraz większa zdolność do rozpoznawania potrzeb klienta na podstawie informacji, jakie zostawia on w Sieci, prowadzi z kolei do rozwoju trendu przeciwstawnego do trendu otwartości i masowej innowacyjności, uruchomionego przez Web 2.0. Otóż, jak zauważa Jonathan Zittrain, specjalista w dziedzinie prawa internetowego z Oxford University, umasowienie Internetu (korzysta z niego już 1,3 mld osób) powoduje standaryzację oczekiwań ze strony „zwykłej większości” konsumentów. Są oni gotowi wolność i spontaniczność Web 2.0 zamienić na łatwość użytkowania i bezpieczeństwo. W rezultacie swoimi decyzjami na rynku wspomagają oni trend zwany przez Zittraina „appliantyzacją”. Polega on na kupowaniu gotowych, często zamkniętych rozwiązań spełniających określone funkcje (np. konsole do gry, które choć w sensie funkcjonalnym są komputerami osobistymi, to jednak w przeciwieństwie do PC umożliwiają stosowanie jedynie aplikacji dopuszczonych przez producenta konsoli).

W istocie więc o przyszłości ICT zadecyduje rozstrzygnięcie konfliktu między dwoma megatrendami: prosumpcją opartą na otwartej innowacyjności i standardową konsumpcją polegającą na dostarczaniu zamkniętych technologicznie rozwiązań opartych na precyzyjnym, spersonalizowanym marketingu. Konflikt między tymi megatrendami będzie miał wpływ na cały rynek ICT, zarówno jego konsumencką, jak i korporacyjną część.

O autorze:

Edwin Bendyk

Edwin Bendyk jest pisarzem i publicystą obecnie związanym z działem naukowym tygodnika „Polityka”. Zajmuje się problematyką cywilizacyjną, kwestiami modernizacji, ekologii i rewolucji cyfrowej. Publikuje także w tygodniku „Computerworld”, „Res Publice Nowej”, Krytyce Politycznej”, „Przeglądzie Politycznym” i magazynie „Mobile Internet”. Jest także nauczycielem akademickim, wykłada w Collegium Civitas, gdzie kieruje Ośrodkiem Badań nad Przyszłością, a także w Centrum Nauk Społecznych PAN. Został też członkiem rady Fundacji Nowoczesna Polska oraz rady programowej Zielonego Instytutu.

Dodaj komentarz

Skip to content