Kategorie
Pomorski Przegląd Gospodarczy

Bariery e-rozwoju

Przez informatyzację rozumie się na ogół proces wprowadzania do instytucji publicznych i firm technik informatycznych. Dawniej oznaczało to zakup komputerów, dziś to znacznie szersze przedsięwzięcie technologiczne, ale też – co ważniejsze – organizacyjne. Jednocześnie informatyzacja przestała być jedynie procesem ułatwiającym pracę wewnątrz instytucji. Jest ona nieodłącznie związana z pojęciami takimi właśnie jak społeczeństwo informacyjne.

Społeczeństwo to pojęcie bardzo ogólne i silnie związane ze zjawiskami socjologicznymi, kulturowymi, ekonomicznymi. Dlatego budowa społeczeństwa informacyjnego jest tylko częściowo związana z technologią, a więc jest procesem niezwykle trudnym, o czym wie większość obywateli. Niestety, te atrybuty dziedziczy również informatyzacja i głównie dlatego, a nie ze względów technologicznych, jej wdrażanie pozostawia wiele do życzenia.

Duże i publiczne projekty są trudniejsze

Informatyzacja jest na ogół łatwiejsza do przeprowadzenia w przedsiębiorstwach niż w instytucjach o charakterze publicznym. Jedna zasada jest jednak wspólna – im większy projekt informatyczny, tym trudniej go zrealizować. Jest wiele przykładów przedsięwzięć, a nawet firm, które upadły pod ciężarem wdrożenia dużego systemu. Takie wdrożenie często wymaga wielu lat pracy; im dłuższy jest to okres, tym więcej pojawia się zagrożeń.

Dla społeczeństwa istotniejsza wydaje się informatyzacja właśnie tam, gdzie jest ona trudniejsza, czyli w administracji publicznej. Dodatkowo w pewnym (dość dużym) zakresie dotyczy ona administracji centralnej, a tu występują praktycznie same wielkie projekty. Niestety, nie da się całego procesu zdecentralizować – istnieje wiele zagadnień, które muszą być zarządzane i realizowane na poziomie całego państwa. Co gorsza, od realizacji systemów na tym szczeblu często zależy możliwość sensownych, tzn. zintegrowanych i spójnych rozwiązań informatycznych na poziomie lokalnym. I słabą pociechą jest, że problemy te dotyczą także bardzo zaawansowanych technologicznie krajów (szczególnie tych większych; np. województwo pomorskie liczy o ponad połowę więcej ludności niż Estonia, która z powodzeniem wdraża nowoczesne rozwiązania).

Problem tkwi w specyfice funkcjonowania administracji

Lista przyczyn, dla których informatyzacja na szczeblu centralnym postępuje powolnie, jest długa. Część z nich jest związana z samą specyfiką administracji. Politycy często nie mają dostatecznej wiedzy o problemach wdrażania systemów informatycznych; nierzadko nie zdają sobie sprawy ze skali procesów z tym związanych. Poszczególne resorty z trudem dostrzegają korzyści z rezygnacji z posiadania własnych, dużych systemów baz danych oraz sieci telekomunikacyjnych oraz możliwości, jakie dałaby współpraca między resortami. Departamenty związane z informatyką mają problemy z pozyskaniem dobrych pracowników. Ambicje dyrektorów, przy częstym braku doświadczenia w zakresie wdrożeń dużych systemów, też nie pomagają w realistycznym planowaniu. Powoduje to także kłopoty podczas rozstrzygania przetargów publicznych, ułatwiając ich oprotestowanie. Zmiany na kierowniczych stanowiskach w poszczególnych instytucjach często powodują zmiany kierowników projektów, a to w naturalny sposób generuje dodatkowe problemy i opóźnienia. Procesy legislacyjne odbywają się bez konsultacji z analitykami systemów informatycznych i błędy zostają wykryte dopiero przy próbie opisu procedur niezbędnych do zaprojektowania oprogramowania. Co gorsza, w trakcie tworzenia systemu często prawo ulega zmianie. W skrajnych przypadkach informatycy muszą wyobrażać sobie, jaki będzie kształt przyszłych ustaw i rozporządzeń. Wyobraźnia na ogół nie pokrywa się z rzeczywistością, a efekty są łatwe do przewidzenia.

Konflikt na linii wykonawca – administracja publiczna

Druga grupa przyczyn związana jest ze specyfiką otoczenia biznesowego. Nikt w firmie nie może zabronić handlowcowi oprotestowania przegranego przetargu – mogłoby to być działaniem na szkodę spółki. Tak więc przetargi jeden po drugim zostają unieważniane i tylko w statystykach przychodów sektora dotyczących udziału administracji publicznej nie są realizowane kolejne prognozy.

Co jednak się dzieje, gdy przetarg zostanie rozstrzygnięty? Zwycięzca prawdopodobnie określał własne koszty w sposób optymistyczny (cena miała kolosalne znaczenie przy ocenie oferentów). Harmonogramy dopasowano do oczekiwań zamawiającego, który chce otrzymać produkt najwyższej klasy. Termin realizacji został przez kogoś innego ustalony (i przy założeniu rozpoczęcia prac kilka miesięcy lub lat wcześniej niż w rzeczywistości). Nie ma czasu i pieniędzy na żmudne dociekania, czego przyszły użytkownik oczekuje i czego potrzebuje. W rezultacie powstaje konflikt pomiędzy wykonawcą i zleceniodawcą, projekt ulega opóźnieniu, wykonawca ponosi dodatkowe koszty, a zleceniodawca stwierdza, że to, co otrzymuje, różni się zdecydowanie od tego, co chciałby otrzymać. Ponieważ wszyscy są niezadowoleni, pojawia się oczywiście zarzut, że koszty były zbyt duże, niefrasobliwie wydano pieniądze podatników i tak dalej, i tak dalej.

Fundusze już są, ale czy potrafimy je wykorzystać?

Dotychczas problemem był brak funduszy na informatyzację i tym można było usprawiedliwiać niepowodzenia. Od chwili pojawienia się funduszy strukturalnych sytuacja uległa zmianie.

  • W Programie Operacyjnym „Innowacyjna Gospodarka” dysponujemy ponad 2 miliardami euro (Priorytet 2 – Infrastruktura informatyczna nauki, Priorytet 7 – Społeczeństwo informacyjne – budowa elektronicznej gospodarki, Priorytet 8 – Społeczeństwo informacyjne – zwiększenie innowacyjności gospodarki).
  • W 16 Regionalnych Programach Operacyjnych kwota przeznaczona na podobne cele jest trudna do oszacowania, ale rzędu kilkuset milionów euro.
  • W Programie Operacyjnym „Rozwój Polski Wschodniej” w Priorytecie Infrastruktura społeczeństwa informacyjnego mamy projekt kluczowy „Sieć szerokopasmowa Polski Wschodniej” o wartości ponad miliarda zł.

Razem jest ponad 10 miliardów zł do wydania w ciągu około siedmiu lat (do 2015 r.). A jak wyglądają doświadczenia z lat ubiegłych?

W ramach perspektywy 2004-2006 w programie dotyczącym informatyzacji administracji publicznej (SPO WKP działanie 1.5) planowano wydatkowanie około 600 milionów zł. W trakcie realizacji ograniczono tę kwotę do około połowy. Instytucje nie były w stanie zrealizować projektów w przewidzianym terminie (praktycznie w ciągu ponad trzech lat – do 2008 r.) i aby nie stracić funduszy UE, trzeba było przesunąć zaplanowane kwoty do innych działań. W kolejnych latach, uwzględniając dodatkowe kwoty, jakie były wykorzystane na cele społeczeństwa informacyjnego (i informatyzacji) w ramach funduszy regionalnych, średnio rocznie będziemy musieli wydawać na te cele ponad siedmiokrotnie więcej niż dotychczas. Pytanie, czy potrafimy to zrobić, jest całkowicie zasadne. A recepta na leczenie pacjenta, czyli co zrobić, aby to było możliwe, jest konieczna. Trudność polega na tym, że to schorzenie wymaga współpracy wielu specjalistów i koordynacji ich wysiłków. Niektóre z potrzebnych kuracji postaram się wymienić.

Recepta na sukces

Należy uświadamiać politykom wagę problemu. Bez potraktowania zagadnień związanych ze społeczeństwem informacyjnym w sposób wyjątkowy nic z tego nie będzie. Najlepsze plany informatyzacji państwa i strategie nie zmienią rzeczywistości. Obecnie mamy do czynienia z sytuacją typu epidemia lub klęska żywiołowa i trzeba zastosować adekwatne środki. Przede wszystkim należy zrezygnować z nadrzędności zasad typu „wszyscy mamy takie same żołądki” – informatycy są potrzebni w przemyśle, a dobrzy fachowcy nie będą pracować za wynagrodzenie urzędnicze.

Ustawa o zamówieniach publicznych nie nadaje się do stosowania w przetargach dotyczących systemów informatycznych. Urzędnicy, dziennikarze, politycy powinni się dowiedzieć, że to nie cena decyduje o powodzeniu projektu. Firmy muszą zrezygnować z walki za pomocą absurdalnych cen i terminów i uświadomić sobie, że wdrożenie systemu wymagać będzie dużego wysiłku i bardzo ścisłej współpracy z trudnym, często nieprzygotowanym przyszłym użytkownikiem.

Prawo budowlane i inne regulacje nie powinny uniemożliwiać budowy infrastruktury telekomunikacyjnej, co dobitnie artykułuje Urząd Komunikacji Elektronicznej.

Kategorie
Pomorski Przegląd Gospodarczy

Informatyzacja – kierunek dla Polski

Informatyzacja a młodzi Polacy

Jednym z najważniejszych wyzwań, przed którymi stoi współczesna Polska, jest transformacja do społeczeństwa informacyjnego i elektronicznej gospodarki opartej na wiedzy. Powodem, dla którego te transformacje są takie ważne, jest zmiana poziomu wykształcenia w poszczególnych pokoleniach Polaków. W pokoleniu ludzi w wieku 50-60 lat jedynie co dziesiąta osoba ma wyższe wykształcenie, podczas gdy prawie 50% polskiej młodzieży idzie na studia wyższe. Ambicją młodego pokolenia jest praca w gospodarce opartej na wiedzy – po to młodzi ludzie studiują, często kosztem wielu wyrzeczeń własnych i rodziny. W związku z szybko postępującym otwarciem dla nich rynków pracy w Unii Europejskiej w realizacji tych ambicji nie są ograniczeni do Polski. Są gotowi zaakceptować przejściowo nawet mało prestiżową, fizyczną pracę w Londynie, byle tylko w przyszłości pracować na odpowiadającym ich ambicjom stanowiskach z odpowiednim wynagrodzeniem.

Jeśli Polska nie utworzy dla pokolenia tego pokolenia miejsc pracy w elektronicznej gospodarce opartej na wiedzy, to ci młodzi, dobrze wykształceni ludzie wyjadą z kraju i do niego nie wrócą, z niepowetowaną stratą dla całego narodu. W strategicznym interesie Polski leży, aby pracowali oni w Polsce, najlepiej we własnych firmach, eksportując drogami elektronicznymi na cały świat produkty i usługi oparte na wiedzy. Do osiągnięcia tego celu konieczne jest świadome utworzenie wewnętrznego rynku produktów i usług cyfrowych przez transformację całego społeczeństwa – wszystkich pokoleń – do społeczeństwa informacyjnego, aby wytworzyć popyt na produkty i usługi cyfrowe. Jednocześnie trzeba wspomóc młodych ludzi w masowym zakładaniu przedsiębiorstw wytwarzających produkty cyfrowe i świadczących usługi cyfrowe. Trzeba mocno podkreślić, że mówiąc o produktach i usługach cyfrowych, mamy na myśli przede wszystkim tworzenie treści cyfrowych (ang. content), a nie oprogramowania. Jest to bardzo duża różnica, ponieważ profesjonalne oprogramowanie mogą wytwarzać tylko informatycy, a tych wśród wykształconych absolwentów szukających pracy jest bardzo mało. Natomiast treści cyfrowe mogą i powinni wytwarzać specjaliści wszystkich zawodów, dyscyplin humanistycznych, społecznych, ekonomicznych, artystycznych, przyrodniczych itd., którym o pracę jest dużo trudniej niż informatykom. Dlatego utworzenie rynku i przemysłu treści cyfrowych ma tak wielkie znaczenie społeczne.

Kluczem do utworzenia wewnętrznego rynku treści cyfrowych jest informatyzacja administracji publicznej. Generalnie, albo informatyzacja administracji publicznej zostanie przeprowadzona w sposób scentralizowany i zamknięty, nie tworząc rynku pracy dla młodych, przedsiębiorczych Polaków, albo opierając się na otwartych standardach dających możliwości niezależnego, zdecentralizowanego rozwoju, utworzy taki rynek i przyczyni się do powstania zrębów elektronicznej gospodarki. To pierwsze podejście ogranicza strategiczne cele informatyzacji administracji do samej administracji. Drugie uznaje informatyzację administracji nie za cel, lecz za środek do osiągnięcia ważniejszych strategicznych celów społecznych i gospodarczych, do jakich należy zapewnienie w kraju młodym, dobrze wykształconym Polakom pracy opartej na wiedzy.

Elektroniczna administracja

Elektroniczna administracja jest postrzegana przede wszystkim przez pryzmat usług administracyjnych świadczonych drogami elektronicznymi obywatelom i przedsiębiorstwom, tych samych, które dotychczas były świadczone w formie papierowej. Flagowym pomysłem w tym zakresie jest składanie przez Internet deklaracji podatkowych PIT, czego zresztą polskiej administracji nie udało się zapewnić w ciągu 17 lat od transformacji ustrojowej. Świadczenie usług końcowych jest oczywiście słuszne, ale niewystarczające. Elektroniczna administracja musi stać się przede wszystkim dostawcą „surowców” do budowy przez innowacyjne przedsiębiorstwa bardziej zaawansowanych usług elektronicznych. Tylko w ten sposób można bowiem uzyskać jednocześnie dwa cele: po pierwsze – otworzyć rynek usług opartych na wiedzy dla innowacyjnych przedsiębiorstw, a po drugie – zrealizować postulat ukierunkowania na interesanta, będący warunkiem efektywności gospodarczej.

Zauważmy, że w tradycyjnej administracji urząd jest wykorzystywany wyłącznie do wykonywania zadań cząstkowych, ściśle określonych prawnie przez zakres obowiązków, natomiast nad całym swoim procesem biznesowym musi panować interesant. To interesant, który na przykład chce wybudować dom lub halę produkcyjną, musi wiedzieć, jakie pozwolenia są wymagane, do których urzędów i w jakiej kolejności się zwrócić, jakie dokumenty dostarczyć, nie wspominając o współpracy z trudną do policzenia liczbą podmiotów gospodarczych różnej natury, niezbędnych do wykonania budowy. Interesantowi marzy się jedno miejsce, w którym mógłby uzyskać obsługę całego procesu biznesowego – w tym przykładzie budowy – niezależnie od tego, kto byłby dostawcą cząstkowych usług. Z punktu widzenia interesanta, w tym jednym miejscu powinni być zgromadzeni dostawcy usług administracyjnych zarówno z administracji samorządowej, jak i rządowej, usług notarialnych, sądowniczych, bankowych oraz świadczonych przez szerokie spektrum podmiotów gospodarczych. To marzenie interesanta może być spełnione w Internecie dzięki witrynom o charakterze integracyjnym, świadczącym obsługę pełnych procesów biznesowych, a prowadzonych przez innowacyjne podmioty gospodarcze. Taka witryna powinna pełnić funkcje informacyjne, komunikacyjne i transakcyjne. Powinny znajdować się na niej informacje o charakterze publicznym (ogólnie dostępne) oraz indywidualnym – o stanie procesu konkretnej osoby fizycznej lub prawnej, w szczególności o stanie załatwiania konkretnej sprawy przez dany urząd lub przedsiębiorstwo. Przez taką witrynę, różnymi kanałami – tekstowymi, głosowymi i wizyjnymi – powinna być prowadzona komunikacja z dostawcami usług, w tym z urzędnikami. Wreszcie przez taką witrynę powinny być zawierane transakcje, a przede wszystkim – składane wnioski i podania do urzędów, interesant tą drogą powinien otrzymywać potwierdzenia, a następnie postanowienia i decyzje. Również w ten sposób powinny być dokonywane wszystkie płatności. Taka wizja administracji – jako dostawcy specyficznych usług, stanowiących integralną część procesów biznesowych obywateli i przedsiębiorstw – wymaga informatyzacji urzędów otwartej na współpracę drogami elektronicznymi. Nie wystarcza informatyzacja urzędów na własne, wewnętrzne potrzeby i świadczenie własnych usług bezpośrednio interesantom. Potrzebna jest informatyzacja urzędów na potrzeby całościowych, zintegrowanych procesów biznesowych interesantów obsługiwanych przez wyspecjalizowane innowacyjne przedsiębiorstwa.

Reinżynieria procesów w administracji

Ważnym postulatem wszystkich de facto ekip rządowych w Polsce jest „tanie państwo”, czyli tania administracja publiczna. Tego słusznego dezyderatu nie można zrealizować, obcinając urzędnikom pensje ani zabierając im telefony. Można natomiast i trzeba zreorganizować administrację publiczną tak, aby wykorzystać możliwości tkwiące w rozwiązaniach elektronicznego biznesu. Należy mocno podkreślić, że informatyzacja administracji zorganizowanej tak jak dotychczas, czyli na potrzeby obiegu papierowych dokumentów, nie tylko nie przyniesie oszczędności, ale raczej zwiększy koszty. Pierwszym krokiem do oszczędności jest stopniowe, całkowite wyeliminowanie z kolejnych procesów realizowanych w administracji publicznej dokumentów papierowych. Przy dzisiejszych cenach i pojemnościach dysków przechowywanie dokumentów elektronicznych jest bardzo tanie. Za 200 zł można dzisiaj kupić dysk o pojemności 200 GB, na którym da się przechować 100 milionów jednostronicowych dokumentów w połowie wypełnionych tekstem. Sto milionów kartek ułożonych jedna na drugiej miałoby wysokość 10 kilometrów, a sam papier kosztowałby około 4 milionów złotych! Oczywiście oszczędności kosztowe można uzyskać tylko wtedy, gdy papier wyeliminuje się całkowicie, a nie jeśli do papieru doda się dodatkowo dyski. Ta eliminacja dotyczy przede wszystkim wymiany informacji między urzędami. Przy dzisiejszym poziomie rozwoju społeczeństwa informacyjnego w Polsce nie można interesantom zabronić składania w urzędach dokumentów papierowych. Jednak taki złożony dokument powinien być natychmiast przetworzony elektronicznie i tylko w takiej postaci powinien egzystować w administracji.

Drugim, ważniejszym krokiem na drodze do oszczędności jest wykorzystanie w praktyce faktu, że informacja elektroniczna uwalnia urzędy od konieczności posiadania nośnika informacji. Jeśli informacja jest zapisana na papierze, to urząd musi ten papier posiadać, aby mieć dostęp do zapisanej na nim informacji. Natomiast jeśli informacja ma postać elektroniczną, to wcale nie znaczy, że urząd, który jej potrzebuje do załatwienia danej sprawy, musi ją mieć na własnym serwerze. Wystarczy bowiem, że ma do niej dostęp przez Sieć, a to, gdzie fizycznie znajduje się serwer, nie ma dla sprawy żadnego znaczenia. W elektronicznej administracji oszczędności kosztowe wynikają z koncentracji przechowywania informacji i eliminacji ich powielania.

Przykładowo, w Polsce jest około 2500 gmin, ale nie ma powodu, aby każda gmina miała swój „niepowtarzalny” formularz podatku od nieruchomości i własną bazę danych podatników na własnym serwerze. Koszty w skali kraju tworzenia i przechowywania takich niepowtarzalnych formularzy, w istocie różniących się szczegółami bez znaczenia, są 2500 razy za duże albo niewiele mniej. Wystarczyłby jeden odpowiedni serwer na całą Polskę, na którym umieszczono by wzór takiego formularza (a najlepiej wzory wszystkich formularzy i standardowych pism obowiązujących w całej administracji), z którego wszyscy mogliby korzystać przez Sieć – zarówno urzędnicy, jak i interesanci. Podobnie jest z bazami danych dotyczących konkretnych spraw i osób. Nie ma powodu, aby każdy urząd miał własną bazę danych – wystarczy, aby miał swoje dane. To nie serwery, lecz własne dane i wyłączne prawo do ich modyfikowania zapewniają gminie samorządność. Dane przechowywane w profesjonalnych centrach obsługi byłyby z jednej strony lepiej zabezpieczone i lepiej zarządzane, a z drugiej – bardziej dostępne dla osób uprawnionych. To samo oprogramowanie zarządzające mogłoby być wykorzystywane przez wiele urzędów, co prowadziłoby do upowszechnienia zaawansowanej obsługi informatycznej, na którą pojedynczych urzędów nie stać. Ze skoncentrowanych i zapisanych w jednakowym formacie danych o wiele łatwiej wydobywać wiedzę metodami informatycznymi, a na jej podstawie lepiej zarządzać państwem. Urzędom łatwiej byłoby też współpracować – podstawą współpracy byłoby po prostu wzajemne nadanie sobie praw dostępu do określonych dokumentów elektronicznych, bez żadnego przesyłania. Takich centrów informatycznej obsługi administracji powinno być w kraju wiele ze względu na wydajność i bezpieczeństwo systemów, a także na konkurencję zespołów i społeczną celowość tworzenia miejsc pracy dla zawansowanych informatyków w wielu miejscach w kraju. Każde takie centrum powinno jednak zarządzać zintegrowaną informacją z wybranej dziedziny dla całego kraju, a nie wszystkimi informacjami o znaczeniu lokalnym.

Wnioski

Niezbiurokratyzowana, transparentna, skuteczna, tania i jednocześnie szybka może być tylko administracja elektroniczna. Ale nie ta stara, „papierowa”, z dołożonymi do niej komputerami. Elektroniczna administracja wprowadza nowy podział pomiędzy tym, co „centralne”, czyli pojedyncze, i tym, co „lokalne”, czyli zwielokrotnione. Centralny powinien być punkt dostępu do usług, i to usług zintegrowanych, co prowadzi do satysfakcji interesantów. Bardziej centralne powinno być przechowywanie i przetwarzanie danych, gdyż prowadzi to do redukcji kosztów funkcjonowania administracji. Natomiast lokalne powinno być podejmowanie decyzji, gdyż jest warunkiem umocnienia demokracji. Batalia o elektroniczną administrację i o to, jaka ona będzie, jest w istocie batalią o przyszłość młodego pokolenia Polaków.

Kategorie
Pomorski Przegląd Gospodarczy

ICT – wojna globalnych trendów

Próbę analizy trendów informatyzacji należy zacząć od ponowienia pytania, które w 2003 r. zbulwersowało środowiska informatyczne. Does IT Matter? Czy informatyka ma jeszcze znaczenie? – zapytał wówczas Nicholas Carr, redaktor Harvard Business Review. Pytając, miał gotową odpowiedź: Nie, informatyka straciła znaczenie jako strategiczny czynnik budowania przewagi konkurencyjnej organizacji.

Nie zamierzam powtarzać dyskusji, jaką wywołały najpierw artykuł, a potem książka Carra. Przypomnę tylko główną tezę: zdaniem amerykańskiego prowokatora informatyka rozumiana jako IT, czyli technologie informatyczne, dojrzała w sensie technicznym na tyle, że stała się częścią normalnej infrastruktury organizacji, podobnie jak elektryczność, woda czy transport. Nikt już nie buduje przewagi konkurencyjnej, opierając się na elektryfikacji, co nie znaczy, że systematyczne przerwy w dostawach elektryczności nie mają wpływu na rynkową pozycję firmy. Podobnie, zdaniem Carra, jest z IT – rozwiązania techniczne uległy już tak daleko idącej standaryzacji, że ich wdrożenia przestały wymagać szczególnych kompetencji i stały się dostępne dla wszystkich. A co jest powszechnie dostępne, słabo nadaje się na czynnik budowania przewagi.

Kluczem jest wydobycie korzyści z istniejącej infrastruktury

Po pięciu latach od ogłoszenia obrazoburcza teza Carra została wsparta przez ciekawe badania, które jednocześnie pokazują, w którym kierunku zmierzać będą (lub powinny) wysiłki informatyzacyjne w najbliższym czasie. Organizacja Nokia Siemens Networks (NSN) zamówiła w London School of Business opracowanie, którego efektem jest nowy wskaźnik mierzący jakość wykorzystania technologii teleinformatycznych przez społeczeństwa. Jak wiadomo, podobne pomiary wykonuje wiele instytucji: World Economic Forum co roku publikuje ranking krajów na podstawie Network Readiness Index, The Economist Intelligence Unit przygotowuje e-Readiness Index. Opracowany dla NSN miernik nosi nazwę „The Connectivity Scorecard” i koncentruje się na pomiarze efektywności wykorzystania technologii ICT w aspekcie ich wpływu na poziom usieciowienia czy też zwiększenia intensywności komunikacyjnej w danym społeczeństwie. Poszukiwanie takiego wskaźnika jest wynikiem prostego założenia, że w gospodarce informacyjnej jakość przetwarzania informacji i komunikacji jest czynnikiem o bezpośrednim i kluczowym znaczeniu dla sprawności ekonomicznej.

Wyniki nie zaskakują, jeśli chodzi o kolejność w rankingu. Spośród 16 badanych krajów o gospodarkach napędzanych innowacyjnością pierwsze miejsce zajęły Stany Zjednoczone, ostatnie Polska. Zaskakujące okazało się jednak, że nawet lider zdobył zaledwie 6,97 punktów na 10 możliwych. W komentarzu do wyników można przeczytać, że mimo bardzo wysokiego poziomu infrastruktury ICT w najbardziej rozwiniętych krajach wciąż jeszcze wiele zostaje do zrobienia, jeśli chodzi o jej wykorzystanie dla uzyskania korzyści gospodarczych. Na przykład w doskonale „osieciowanej” Korei Południowej przedsiębiorstwa ciągle bardzo słabo wykorzystują możliwości, jakie stwarza telefonia IP.

Najogólniej wyniki The Connectivity Scorecard można podsumować stwierdzeniem, że infrastruktura ICT nie ma już znaczenia (pod warunkiem, że w ogóle istnieje – wynik Polski: 2,18 pkt pokazuje, że mamy słabą infrastrukturę, a tej, która jest, nie umiemy wykorzystać). Wciąż jednak nawet najlepsi nie potrafią do końca wydobyć tkwiących w niej korzyści. A skoro tak, to można się spodziewać, że rozwój ICT będzie się zwracać w kierunku innowacji zmierzających do uaktywnienia potencjału infrastruktury Sieci.

Dopiero Sieć to komputer

Przechodząc do wskazania kilku kluczowych trendów, znowu posłużę się przemyśleniami Nicholasa Carra. W swojej najnowszej książce „The Big Switch” lansuje on tezę, że w sensie technologicznym wkraczamy w epokę World Wide Computer. Upowszechnienie Internetu wraz z rozwojem takich firm infrastrukturalnych jak Google powoduje, że fizycznego sensu nabrało stare motto firmy Sun Microsystems: dopiero Sieć to komputer.

Tyle tylko, że jak zwykle wszystko potoczyło się inaczej, niż przewidywały plany marketingowe. Oto bowiem już od wielu lat korporacje takie jak Sun i Oracle promowały idee network computingu, grid computingu, utility computingu, by wymienić tylko kilka nazw. Uczestniczyłem w wielu spotkaniach pokazujących ekonomiczne zalety wdrożenia rozproszonych modeli przetwarzania i traktowania oprogramowania jak usługi. W istocie jednak to dopiero konsumenci odkryli moc ukrytą w Sieci w ramach rewolucji Web 2.0. Twórca tego pojęcia, Tim O’Reilly, proponuje następującą definicję: „Web 2.0 polega na wykorzystaniu Sieci jako platformy łączącej wszystkie sieciowe urządzenia; aplikacje Web 2.0 to rozwiązania czyniące najlepszy użytek z tej platformy: dostarczają oprogramowanie w postaci nieustannie dostępnej usługi, która staje się coraz lepsza w miarę korzystania z niej; wykorzystuje i łączy dane z różnych źródeł, włącza indywidualnych użytkowników, dostarczając jednocześnie narzędzia umożliwiające tym użytkownikom samodzielne przetwarzane danych i łączenie usług; tworzy efekty sieciowe poprzez architektury uczestnictwa”.

Wikipedia, Flickr, Facebook, YouTube, MySpace, Google Dokumenty to nazwy niektórych tylko dostępnych w Internecie usług i realizacji fenomenu Web 2.0. Niepostrzeżenie setki milionów ludzi całkowicie zanurzyły się w Sieci, powierzając jej wszystko: najintymniejsze informacje, dane finansowe, a także nieskończoną energię kreatywności. To nie pierwszy przypadek, kiedy konsumenci wyprzedzili rynek. Wcześniej podobna sytuacja wydarzyła się z telefonią IP. Mówiło się o niej już pod koniec lat 90., firmy takie jak Cisco prezentowały rozwiązania biznesowe. Biznes jednak nie reagował. Dopiero gdy pojawił się na rynku Skype, konsumencka wersja VoIP, lawina ruszyła.

Rozwój Web 2.0 i Skype ujawniają kilka bardzo ważnych trendów. Po pierwsze, infrastruktura ICT jest już rzeczywiście na tyle dojrzała, by stać się podstawą masowego świadczenia usług poprzez Sieć w modelu utility computing. Tyle tylko, że jednocześnie ujawniła się prawda, z której zaakceptowaniem tradycyjne instytucje: biznes, administracja, szkoły mają olbrzymi problem. Oto bowiem okazuje się, że w świecie, w którym „IT Doesn’t Matter”, głównym źródłem innowacyjności na rynku jest sam konsument. Wcześniej niż owe tradycyjne organizacje dostrzega on nowe możliwości, bardziej skłonny jest do ryzyka i dzielenia się swoimi pomysłami w otwartych modelach dystrybucji wiedzy (Wikipedia, Creative Commons, Open Source).

Władza prosumenta

Umasowienie i otwarcie innowacyjności będzie miało coraz większy wpływ na funkcjonowanie organizacji. Szybkość, parametr zawsze istotny w biznesie, w świecie Web 2.0 nabrał szczególnego znaczenia. Nie ma już czasu na długotrwałe doskonalenie produktu przed wprowadzeniem go na rynek, weszliśmy w epokę „perpetual Beta”. Polega on na wprowadzaniu produktów i usług, których cykl rozwojowy może być jeszcze niezakończony, i zaproszeniu konsumentów do współudziału w doprowadzeniu oferty do kolejnych etapów doskonałości. Metoda ta najlepiej sprawdza się w sektorze informatycznym, ale stosują ją coraz częściej firmy zajmujące się wytwarzaniem tak wyrafinowanych produktów, jak komputerowe skanery medyczne czy samochody. A efekty? Wymienia je O’Reilly:

  • szybszy „time to market” (czas dotarcia na rynek),
  • zmniejszone ryzyko,
  • bliższe relacje z konsumentami,
  • zwrot informacyjny z rynku w czasie rzeczywistym,
  • zwiększone zaangażowanie odbiorców.

By sprostać wymogom rynku zdominowanego przez prosumenta, trzeba zacząć stosować jego metody działania. Dlatego IBM, wykorzystując zestaw aplikacji Lotus, wprowadza system samodzielnego tworzenia biznesowych rozwiązań software’owych „na miarę”, które można budować samodzielnie techniką „mash-up”, czyli składania całości z funkcjonalnych cegiełek.

Model prosumencki przesuwa się do relacji business to business, czego spektakularnym przykładem jest Amazon.com. Serwis ten otworzył interfejs aplikacyjny, umożliwiając firmom trzecim tworzenie rozwiązań informatycznych budujących wartość dodaną do zasobów informacyjnych gromadzonych w repozytoriach Amazona. Z możliwości tej korzystają już tysiące przedsiębiorstw.

Otwieranie front-endu będzie niewątpliwie jednym z najważniejszych trendów, który zacznie także przenikać do świata aplikacji mobilnych, czego dowodzą inicjatywy takie jak Android (proponowana przez Google otwarta platforma oprogramowania dla urządzeń mobilnych).

Równolegle jednak do trendu polegającego na rosnącej otwartości komunikacji, na rynku trwać będzie rozwój technologii umożliwiających konsolidację i lepszą eksploatację kluczowego zasobu – informacji. Rozwój infrastruktury teleinformatycznej przesunął równowagę na rynku w stronę prosumenta, jednocześnie jednak coraz większy udział technologii w komunikacji i transakcjach powoduje, że automatycznie produkowane są olbrzymie ilości bardzo interesujących danych. Właściciele serwerów obsługujących ruch w Sieci zyskali dostęp do potencjalnie bezcennej wiedzy o coraz bardziej kapryśnym kliencie. Wydobycie tej wiedzy warte będzie każdych pieniędzy, nic więc dziwnego, że ostatni rok obfitował w megaporozumienia największych graczy na rynku IT, inwestujących intensywnie w rozwiązania business intelligence.

Decydujący konflikt

Coraz większa zdolność do rozpoznawania potrzeb klienta na podstawie informacji, jakie zostawia on w Sieci, prowadzi z kolei do rozwoju trendu przeciwstawnego do trendu otwartości i masowej innowacyjności, uruchomionego przez Web 2.0. Otóż, jak zauważa Jonathan Zittrain, specjalista w dziedzinie prawa internetowego z Oxford University, umasowienie Internetu (korzysta z niego już 1,3 mld osób) powoduje standaryzację oczekiwań ze strony „zwykłej większości” konsumentów. Są oni gotowi wolność i spontaniczność Web 2.0 zamienić na łatwość użytkowania i bezpieczeństwo. W rezultacie swoimi decyzjami na rynku wspomagają oni trend zwany przez Zittraina „appliantyzacją”. Polega on na kupowaniu gotowych, często zamkniętych rozwiązań spełniających określone funkcje (np. konsole do gry, które choć w sensie funkcjonalnym są komputerami osobistymi, to jednak w przeciwieństwie do PC umożliwiają stosowanie jedynie aplikacji dopuszczonych przez producenta konsoli).

W istocie więc o przyszłości ICT zadecyduje rozstrzygnięcie konfliktu między dwoma megatrendami: prosumpcją opartą na otwartej innowacyjności i standardową konsumpcją polegającą na dostarczaniu zamkniętych technologicznie rozwiązań opartych na precyzyjnym, spersonalizowanym marketingu. Konflikt między tymi megatrendami będzie miał wpływ na cały rynek ICT, zarówno jego konsumencką, jak i korporacyjną część.

Kategorie
Pomorski Przegląd Gospodarczy

Ambitne plany kształcenia kadr na Pomorzu

Z V Shankar , Wiceprezesem Zensar Technologies, regionalnym szefem na kraje Europy Centralnej i Skandynawię rozmawia Leszek Szmidtke , dziennikarz PPG i Radia Gdańsk.

Leszek Szmidtke: Dlaczego Zensar wybrał Gdańsk, a nie Katowice czy Wrocław? Jakie znaczenie miała infrastruktura, kadry?

V Shankar: Rzeczywiście, w Polsce są inne atrakcyjne miejsca, np. Kraków, Wrocław czy Katowice. O wyborze Gdańska zadecydowały dwa czynniki. Po pierwsze, jest to wschodzący rynek, który bardzo szybko się rozwija. Zaobserwowaliśmy wiele inwestycji w infrastrukturę. Z naszych analiz wynikało, że Gdańsk jest biegunem wzrostu i miejscem, w którym administracja bardzo się stara, by poprawić kondycję miasta. Dlatego między innymi stwierdziliśmy, że warto tu zainwestować. Kolejną przewagą Gdańska jest kapitał ludzki – miasto dysponuje odpowiednio wykształconymi, kompetentnymi kadrami, z których jesteśmy zadowoleni. Po niespełna rocznej obecności otwarcie mówimy, że to był dobry wybór.

Statystyki mówią jednak, że pod względem rozwoju infrastruktury jesteśmy w najlepszym razie pośrodku krajowej stawki. Natomiast pod względem kadrowym – nawet w tej drugiej połowie – liczba studentów na kierunkach informatycznych jest jedną z niższych w Polsce.

Nie chciałbym komentować statystyk, wiem natomiast, że Gdańsk dysponuje ogromnym potencjałem. Przykładem jest bardzo szybko rozwijające się lotnisko w Rębiechowie.

Zgadzam się, że w waszym regionie jest deficyt wykwalifikowanej siły roboczej, więcej pracowników znaleźlibyśmy np. w Warszawie czy Krakowie – ale nie w północnej części Polski. Obserwuję naszych pracowników będących świeżo po studiach – są oni nie tylko świetnie wykształceni i kompetentni, ale też dostępni. Ponadto nasza firma ma pewien pomysł, jak przyczynić się do rozwoju województwa pod kątem umiejętności technicznych.

Gdy Zensar rozpoczynał w Gdańsku działalność, mówiło się o ogromnej liczbie pracowników, których firma miała zatrudnić. Zatem jaki to pomysł?

Mamy ambitne plany kształcenia kadr w tym regionie. To, że rozwój naszej firmy nie jest tak dynamiczny, jak oczekiwaliśmy, nie ma nic wspólnego z Gdańskiem – taka sama sytuacja wystąpiłaby, gdybyśmy ulokowali się we Wrocławiu, Krakowie czy innym mieście. Chwilowe spowolnienie wynika bowiem z sytuacji w państwach, które są naszymi klientami – Wielkiej Brytanii czy krajach skandynawskich.

Zapotrzebowanie na pracowników z wykształceniem informatycznym jest coraz większe i już teraz niezaspokojone. Czy to nie jest i nie będzie największą barierą w rozwoju takich firm jak Zensar?

Oczywiście. Jednak problem braku kadr, a także technicznego opóźnienia dotyczy nie tylko Gdańska, ale i całej Polski. Dlatego Zensar przygotowuje program doskonalenia kadr technicznych dla Polski – tak, by były one kompetentne w branży teleinformatycznej w ogóle, nie tylko podejmując pracę w naszej firmie. Wprowadzamy ten program razem z miastem i uczelniami, próbujemy zyskać dla niego środki europejskie. Jeżeli to się uda, stworzymy centrum doskonałości, dzięki któremu liczba osób przygotowanych do pracy w branży informatycznej powiększy się – na tyle, by była wystarczająca dla tego sektora. To rozwiązanie sprawdziło się w Indiach i Chinach.

Mamy na Pomorzu wiele uczelni, w tym dużą uczelnię techniczną, które nie są w stanie przygotować odpowiedniej ilości wykształconych technicznie kadr. Nie jest pan tym zaskoczony?

Nie, bo to samo obserwujemy w Indiach. Problem polega na tym, że liczba absolwentów jest niewystarczająca – to ich kwalifikacje, przygotowanie do pracy pozostawiają wiele do życzenia. Zanim absolwent się z tym upora, mija dużo czasu, za który płaci pracodawca. Dlatego chcemy szkolić, przygotowywać studentów do pracy w branży. Tu jest pole dla szerokiej współpracy firm z uczelniami.

W planach województwa pomorskiego związanych z wykorzystaniem środków z Unii Europejskiej najwięcej miejsca poświęca się projektom związanym z infrastrukturą informatyczną, a nie z technicznym, informatycznym kształceniem kadr.

Dla rozwoju społeczeństwa informacyjnego oba aspekty są równie ważne. Bez odpowiedniej infrastruktury kurczą się wszelkie możliwości. Na przykład w Japonii średnia prędkość domowego łącza internetowego to około 100 Mb/s, i to przez światłowód. W Polsce będziemy szczęściarzami, gdy natrafimy na łącze o prędkości 64 Kb/s. Jednak w równie dużym stopniu społeczeństwo informacyjne potrzebuje wykwalifikowanych ludzi – bez nich infrastruktura i przepływ informacji nie będą kwitnąć.

Czy samorządy i państwo powinny odpowiadać za tworzenie infrastruktury teleinformatycznej, czy też powinno to być zadanie operatorów telekomunikacyjnych?

Odpowiem z perspektywy Indii: w naszym kraju za infrastrukturę – zarówno drogową, lotniczą, jak i teleinformatyczną – w całości odpowiadał rząd. Dopóki tak było, nic się na tym polu nie działo. Jakiś czas temu Indie weszły na drogę prywatyzacji. Dziś niemal w każdym domu jest telefon, coraz więcej osób dysponuje też telefonem komórkowym. Indie prawdopodobnie mają najszybszy przyrost liczby użytkowników telefonów komórkowych na świecie. Na dodatek koszty połączeń telefonicznych szybko spadają. Dzieje się tak dzięki prywatyzacji i wprowadzeniu konkurencji. Według mnie to najlepsza metoda na dynamiczny rozwój infrastruktury teleinformatycznej.

Podam jeszcze jeden przykład: gdy zakładaliśmy siedzibę w Gdańsku, na podciągnięcie linii telefonicznej do biura czekaliśmy 8 tygodni. W Indiach zajęłoby to około 4 godzin.

Ale firmy telekomunikacyjne w Indiach, w przeciwieństwie do polskich przedsiębiorstw, dużo inwestują w infrastrukturę.

Dlatego konieczna jest konkurencja. Gdy rynek bardziej się otworzy, zostaną na niego wpuszczeni nowi gracze, którzy wszystkimi środkami będą walczyć o klienta – część z nich na pewno zacznie inwestować w infrastrukturę.

Marcin Szpak – wiceprezydent Gdańska, któremu zadałem to samo pytanie – odpowiedział, że samorządy nie powinny inwestować w infrastrukturę, lecz jedynie lepiej wykorzystywać obecną. Zamiast tego prezydent woli inwestowanie w upowszechnianie technik informatycznych, tworzenie baz danych oraz inwestycje w edukację.

Oczywiście, wymiar „ludzki” jest najważniejszy dla przepływu informacji. Zgadzam się z prezydentem Szpakiem, że inwestycje w infrastrukturę informatyczną nie powinny należeć do samorządów. Wspominałem, jak to wyglądało dawniej w Indiach i jaki jest teraz stan. Infrastruktura zaczęła kwitnąć dopiero po wpuszczeniu na rynek prywatnych operatorów. Nie martwię się jednak specjalnie o infrastrukturę informatyczną w Polsce. Myślę, że coraz większy popyt spowoduje inwestycje i szersze otwarcie rynku. Natomiast rząd i samorządy powinny skupić się na inwestycjach w kapitał ludzki, w kompetencje i wykształcenie.

Wasza firma obsługuje klientów w Skandynawii i Europie Zachodniej. Czy wynika to z jakiejś bariery spowodowanej problemami technologicznymi, czy też mniejszą zasobnością kieszeni polskich klientów?

Technologia nie jest barierą. Na początku naszej działalności nie obsługiwaliśmy też klientów z Indii. Powód był prosty: sumy, jakie kazaliśmy sobie płacić za naszą pracę, są akceptowalne dla Europy Zachodniej, ale zbyt wysokie dla Indii. Usługi dla Indii wykonywała inna firma, która miała niższe koszty pracy, mniej płaciła swoim pracownikom i oferowała klientom niższe ceny. Tak samo jest w Polsce – nie możemy konkurować z tańszymi polskimi firmami. Nie ma to więc nic wspólnego ze stopniem rozwoju społeczeństwa informacyjnego w Polsce.

Czy w najbliższych latach gdański Zensar będzie się koncentrował na skandynawskich i brytyjskich klientach?

W ciągu trzech lat chcemy stworzyć serwis globalny, obsługujący klientów z całego świata. Aby to zrobić, wybudujemy kilka nowych centrów przy pomocy tych już istniejących w Chinach, Indiach i Polsce. Chcemy ponadto, by Polska odgrywała znaczącą rolę w globalnym rozwoju firmy, szczególnie dzięki swoim zasobom ludzkim. Za pomocą tzw. Global Delivery Platform możemy wykorzystywać umiejętności i kompetencje polskich pracowników w każdym miejscu świata, o każdej porze.

Dziękuję za rozmowę.

Kategorie
Pomorski Przegląd Gospodarczy

Potrzebujemy specjalistów informatyków

Lokalna Akademia Informatyczna w Gdyni

Początkowo wzrastało również zainteresowanie młodych ludzi szkołami technicznymi, ale już w latach 90. XX wieku zaczęło spadać. Pojawiła się luka, wynikająca z różnicy popytu i podaży, a cudowne mechanizmy wolnego rynku nie potrafiły jej wypełnić. Najbardziej popularnymi kierunkami edukacji stały się ekonomia, zarządzanie i nauki społeczne. Do tego doszło niedopasowanie programów studiów technicznych do potrzeb rynku Potrzebujemy specjalistów-informatyków pracy i ograniczanie w wielu krajach rozwiniętych szkolnictwa zawodowego i średniego technicznego. Wiadomo, że kształcenie techniczne należy do najbardziej kosztownych… Krótkowzroczność polityków podyktowana rachunkiem ekonomicznym spowodowała często nieodwracalne zmiany w systemach edukacji. Jest to doskonale widoczne na przykładzie wyników polskiej reformy szkolnictwa zapoczątkowanej w roku 1999.

Firmy biorą się za edukację

W drugiej połowie lat 90… XX wieku zarządy największych firm sektora IT niemal równocześnie doszły do wniosku, że muszą wesprzeć system edukacji publicznej, aby zapewnić sobie dalszy dynamiczny rozwój. Cisco Systems, Hewlett Packard, Intel, Microsoft, Novell, Sun Microsystems i inne stworzyły programy edukacyjne mające na celu wykształcenie niezbędnej liczby fachowców. Niektóre z tych inicjatyw ograniczały się do systemu krótkotrwałych szkoleń specjalistycznych, opracowywanych na potrzeby własnych nowych rozwiązań, inne zaś podchodziły do problemu szerzej, stawiając sobie za cel wykształcenie od podstaw specjalistów z danej dziedziny. Co najmniej trzy koncerny (Cisco Systems, Microsoft, Sun Microsystems) stworzyły duże platformy edukacyjne zwane akademiami. Pozostałe poprzestały na systemach certyfikacji uczestników szkoleń.

Programy edukacyjne przetrwały kryzys

Załamanie gospodarki światowej w 2001 roku spowodowało duże problemy w branży IT. Sprowadzało się to często do spadku wartości firm, dużych redukcji kosztów i zwolnień grupowych. Programy edukacyjne, jako nieprzynoszące bezpośrednich zysków, były oczywiście zagrożone redukcją, ale te największe przetrwały, co przyczyniło się do szybkiej odbudowy sektora IT w drugiej połowie 2002 roku. Przykładem może być firma Cisco Systems, której wartość już w trzecim kwartale 2002 roku powróciła do stanu sprzed załamania w 2001 roku, gdy w tym samym czasie wartość dziesięciu największych konkurentów w branży nadal była trzy razy mniejsza niż wcześniej. Utrzymanie najmocniejszej na świecie pozarządowej platformy edukacyjnej Cisco Networking Academy (NetAcad) opłaciło się i wciąż przyczynia się do dalszego dynamicznego wzrostu firmy.

Projekt NetAcad

Projekt NetAcad powstał już w 1997 roku z inicjatywy prezesa firmy Cisco Systems Johna Chambersa i jest rozwijany na zasadach non-profit równolegle z systemem komercyjnych szkoleń. W 2001 roku w programie było zarejestrowanych około 100 tys. studentów, a obecnie jest ich niecałe 2 miliony. Wyniki badań przeprowadzonych przez IDC w 2001 roku pokazały, że brak specjalistów w branży IT będzie w następnych latach coraz większy i w roku 2004 osiągnie liczbę około 700 tys. w skali świata. Ponowne analizy w roku 2005 potwierdziły rosnące zapotrzebowanie. Miały one na celu ocenę podaży i popytu pracowników wykwalifikowanych w zakresie technologii sieciowych. Wynikało z nich, że np. w Polsce, aby zaspokoić popyt na ogólnych specjalistów od sieci, do roku 2008 potrzebnych będzie dodatkowo 22 tys. wykwalifikowanych pracowników (w całej Europie 615 tys.), a żeby zaspokoić popyt na specjalistów od sieci bezprzewodowych, bezpieczeństwa oraz telefonii IP – 18,3 tys. (w całej Europie 500 tys.).

Bazując na tych wynikach, platforma NetAcad stale się rozwija, wykorzystując partnerstwo prywatno- publiczne. W programie uczestniczy wiele państwowych, prywatnych oraz prowadzonych przez organizacje pozarządowe szkół średnich i wyższych na całym świecie.

W Polsce od 2000 roku powstało ponad 130 Akademii Informatycznych Cisco, w których kształci się obecnie ponad 10 tys… słuchaczy. W 2001 roku założono trzy pierwsze akademie w Trójmieście: Pomorską Akademię Regionalną, Lokalną Akademię Informatyczną w Gdyni i Lokalną Akademię Informatyczną w Sopocie. Program oferowanych szkoleń jest stale rozszerzany i aktualizowany. Obecnie można studiować następujące moduły:

  • CCNA I-IV (Cisco Certified Networking Associate) – Administracja Sieci Komputerowych
  • IT Essentials I – Hardware i Software i IT Essentials II – Sieciowe Systemy Operacyjne
  • Fundamentals of Java Programming Language
  • Fundamentals of Unix
  • Fundamentals of Wireless LANs – Sieci Bezprzewodowe
  • Network Security I i II – Bezpieczeństwo Sieciowe
  • CCNP (Cisco Certified Networking Professional).

Charakteryzuje je różny stopień trudności, często wpisują się w hierarchiczny system certyfikacji. Zajęcia odbywają się w laboratoriach wyposażonych w sprzęt Cisco, ale zdobytą wiedzę i nabyte umiejętności łatwo można wykorzystać, pracując na produktach konkurencyjnych firm. Stanowi to o sile programu NetAcad.

W ramach platformy realizowane są także projekty o charakterze społecznym, np. „CCNA dla Pań” w Lokalnej Akademii Informatycznej w Gdyni… Jest to część światowego programu „Gender Initiative”, który ma na celu zwiększenie udziału kobiet w sektorze IT.

Wartość certyfikatów stale wzrasta

Wartość certyfikatów zaświadczających o konkretnych umiejętnościach od wielu lat wzrasta na całym świecie. Ma to miejsce także w Polsce, wraz z coraz szybszym wzrostem zapotrzebowania na specjalistów IT. Uczelnie techniczne nie nadążają kształcić odpowiedniej liczby fachowców. Poza tym, często kierując się rachunkiem ekonomicznym, zmniejszają wymiar godzin, liczbę laboratoriów, jednocześnie zwiększając liczebność grup, co odbija się negatywnie na poziomie absolwentów. Obserwując polską edukację publiczną, często wracam do tezy wygłoszonej w 2004 roku na ogólnopolskiej konferencji NetAcad przez rektora Wyższej Szkoły Informatyki i Zarządzania w Rzeszowie. Wynikało z niej, że dyplom ukończenia polskiej uczelni jest słabo rozpoznawany za granicą, a także w kraju, co wynika z dużej liczby nowo powstałych placówek. Aby więc potwierdzić wartość dyplomu WSIZ, wprowadzono do programu studiów wiele szkoleń, które przygotowują do egzaminów certyfikacyjnych potwierdzających konkretne umiejętności i rozpoznawanych na całym świecie. Patrząc z perspektywy kilku lat, widać, że takie działanie było słuszne, gdyż renoma tej uczelni stale wzrasta, a ostatnio otrzymała ona tytuł najlepszej Akademii Cisco w regionie EMEA (Europy, Afryki i Bliskiego Wschodu) oraz centrum szkoleniowo-certyfikującego dla polskich instruktorów (CATC). Wykorzystanie specjalistycznych ścieżek certyfikacyjnych, nowoczesny system zarządzania i komunikacji ze słuchaczami powoduje napływ do Rzeszowa studentów z całej południowej Polski, a także z zagranicy (studiuje tam ok. 5% wszystkich studentów zagranicznych kształcących się w Polsce).

Nic nie zastąpi relacji mistrz-uczeń

Jednak mimo rozwijających się różnych programów edukacyjnych nadal brakuje tzw. informatyków. Cóż można jeszcze zrobić, nie zwiększając znacznie środków wydawanych na naukę i edukację? Co jakiś czas powraca idea nauki na odległość. Pomysł wygląda atrakcyjnie, ponieważ pozwala ograniczyć koszt nauki przypadający na jednego studenta. Jego istota przypomina plan budowy coraz większych sal wykładowych na wyższych uczelniach. Przecież ten sam profesor może przemawiać równie dobrze do 100, jak i do 10 tys. studentów. Jednak nauka to nie tylko wykłady, a i nawet podczas nich często daje się studentom możliwość zadawania pytań, których liczba wzrasta proporcjonalnie do liczby słuchaczy. Zwiększając więc liczbę jednocześnie edukowanych, obniżamy jakość edukacji. Nic nie zastąpi relacji mistrz-uczeń, która może mieć miejsce tylko w stosunkowo małych grupach.

Podobnie przedstawia się sytuacja w przypadku nauczania poprzez środki masowego przekazu. Próby wykorzystania do tego celu radia lub telewizji zazwyczaj nie przynosiły pożądanych efektów. Obecnie dysponujemy wprawdzie lepszym, interaktywnym medium – Internetem, aplikacjami multimedialnymi i symulatorami, ale nie ma nic bardziej motywującego jak namacalny kontakt z żywym edukatorem. Coraz modniejszy e-learning sprawdza się najlepiej w przypadku krótkotrwałych szkoleń, gdzie początkowa motywacja studenta wystarcza do opanowania całego materiału. Oczywiście należy wciąż próbować, szukając nowych mechanizmów motywujących i organizując spotkania uczestników wirtualnych studiów na zajęciach w laboratorium czy w celu zdania egzaminów.

Na tym tle ciekawie rysuje się inicjatywa Polskiej Wszechnicy Informatycznej, w której w radzie naukowej zasiadają profesorowie najlepszych polskich uczelni, a w komitecie sterującym prezesi polskich oddziałów znanych koncernów ICT. Możliwe, że ich współpraca przyniesie lepsze rezultaty niż do tej pory.

W ramach NetAcad można również uruchomić grupę tzw. blended learning, czyli taką, która będzie spotykać się tylko w celu zaliczenia laboratorium i egzaminów. Pewne elementy e-learningu są używane również podczas klasycznych szkoleń akademii. Studenci mogą korzystać z multimedialnych, interaktywnych materiałów i symulatorów urządzeń sieciowych on-line z dowolnego miejsca na świecie. Funkcjonalność tę zapewnia platforma Virtuoso, którą wykorzystuje się z powodzeniem także do zdalnego nauczania matematyki dzieci w Jordanii oraz edukacji medycznej w Afryce. Być może, aby podnieść skuteczność i zakres zastosowań e-learningu, wystarczy wprowadzić doskonalsze materiały i narzędzia edukacyjne. Zapewne pomoże w tym również postępująca wirtualizacja życia społecznego, coraz powszechniejsze wykorzystanie Internetu jako wszechstronnego medium i rozwój innych e-usług.

Wnioski na przyszłość

Oczywiście, żeby zapewnić rozwój polskiej gospodarki i zbudować społeczeństwo informacyjne oparte na wiedzy, musimy rozwijać wszelkie formy edukacji, bazując na założeniu, że inwestycje w tzw. kapitał ludzki zwracają się najlepiej. Zyski należą jednak do kategorii długofalowych i często nie mieszczą się w perspektywie postrzeganej przez polityków, co widać po jednych z najmniejszych w Europie nakładach na naukę i oświatę w naszym kraju. Pozostaje nam chyba tylko edukować klasę rządzącą i przyczynić się do efektywnego wykorzystania środków unijnych, których znaczna część jest alokowana w ramach Programu Operacyjnego Kapitał Ludzki 2007-2013. Infrastrukturalny projekt pomorskiego Urzędu Marszałkowskiego, mający na celu budowę sieci szkieletowej w województwie, ma zanieść światełko Internetu do ponad 250 tysięcy Pomorzan. Moim zdaniem, należy go wesprzeć szeregiem projektów miękkich, które przygotują kadrę administrującą stworzoną siecią oraz użytkowników do jej efektywnego wykorzystania. W tym celu najlepiej zawiązać partnerstwa, które połączą trzy sektory: samorządowy, prywatny i pozarządowy, z których każdy wniesie specyficzną wartość do projektu. W mniejszych miejscowościach przydałoby się też przygotować lokalnych liderów wspierających mieszkańców w wykorzystywaniu nowych technologii. Ciekawą inicjatywą jest również tworzenie i rozwijanie parków naukowo-technologicznych, klastrów technologicznych i inkubatorów przedsiębiorczości. Parafrazując znanego polityka: musimy wziąć los w swoje ręce i wykorzystać dostępne fundusze jak najlepiej, dla naszego wspólnego dobra.

Kategorie
Pomorski Przegląd Gospodarczy

Z informatyzacją edukacji nie czekajmy na Warszawę

Z Waldemarem Kucharskim , Prezesem Young Digital Planet, rozmawia Leszek Szmidtke , dziennikarz PPG i Radia Gdańsk.

Leszek Szmidtke: Rozważania, czy to istniejąca infrastruktura teleinformatyczna wywołuje zainteresowanie odbiorców, czy też rosnące potrzeby powodują rozwój infrastruktury, przypomina pytanie, co było wcześniej: jajko czy kura? Ale dla wydawnictwa edukacyjnego, które działa na całym niemal świecie, to chyba ważne.

Waldemar Kucharski: Infrastruktura to coś, co musi być, ale dopóki nie jest wykorzystywana, nie ma wdrożeń, nie jest w świadomości ludzi obecna. Można też się długo zastanawiać, jak coś powinno wyglądać, funkcjonować, ale też można pójść śladem Singapuru, gdzie każdy obywatel został wyposażony w łącze, indywidualny numer IP i został zaimplantowany do swoistego elektronicznego państwa. Taki krok, z dnia na dzień, spowodował powszechny dostęp do Internetu i jego wykorzystanie. Dlatego wydaje mi się, że stworzenie infrastruktury jest zadaniem władz – czy to państwa, czy samorządów. Z informatyzacją edukacji nie czekajmy na Warszawę

W naszym regionie, mimo decyzji samorządu wojewódzkiego, że więcej środków z Unii Europejskiej zostanie przeznaczonych właśnie na infrastrukturę, nie cichnie dyskusja, czy to było właściwe posunięcie.

Moim zdaniem właśnie w infrastrukturę trzeba inwestować. Rośnie nam kolejne pokolenie, którego nie trzeba zachęcać do sięgania do Internetu, do tego, by załatwiać w ten sposób sprawy urzędowe, kupować, sprzedawać, kształcić się. Pokolenia poniżej 20. roku życia, a może nawet osób kilka lat starszych, nie trzeba już do tego przekonywać. To byłaby strata pieniędzy. Ludzie oczywiście najchętniej wykorzystują Internet dla rozrywki, ale przecież łatwiej choćby złożyć tą drogą wniosek o dowód osobisty, niż stać w długich kolejkach. Podobnie jest z edukacją, zwłaszcza młodszych pokoleń.

Teoretycznie to szkoły powinny być miejscem, w którym najlepiej się sprawdzają nowe technologie. Jak pomorskie lub szerzej – polskie szkoły te możliwości wykorzystują?

Dominuje model tradycyjny, a dzieje się tak, gdyż mimo wszystko w naszym systemie edukacji zarządzanie jest nadal centralne. Z jednej strony samorządy są tzw. organem prowadzącym, ale z drugiej strony kluczowe decyzje co do kształtu edukacji zapadają w Warszawie. Dlatego dopóki ministerstwo nie zadecyduje o powszechnym wprowadzeniu nowych technologii, dopóty szybko one pod strzechy nie trafią. Jednocześnie uczniowie będą coraz mocniej naciskać, by komputery i Internet wykorzystywać w nauce. Początkowo będzie się to działo ewolucyjnie, ale później muszą nastąpić konkretne decyzje wykorzystujące zarówno istniejącą infrastrukturę, jak i coraz więcej ofert na rynku. Dzisiaj większość uczniów dysponuje komputerami lub ma do nich dostęp, tak jak do Internetu. Podobnie chyba jest z nauczycielami. Jeżeli wyposaży się ich w odpowiednie treści edukacyjne oraz narzędzia, które pomogą zorganizować nowe formy kształcenia, to nie będzie to długo trwało.

Skoro nie można liczyć na Ministerstwo Edukacji, to czy samorządy próbują unowocześniać kształcenie na własną rękę?

Takie przykłady coraz częściej możemy spotkać. W naszym regionie gmina Przodkowo pierwsza w naszym województwie całościowo wprowadziła do swoich szkół pomoce dydaktyczne z zakresu ICT. Przykładów jest coraz więcej, chociaż Przodkowo zrobiło to jednym ruchem i we wszystkich szkołach. Okazuje się, że kilka miesięcy wystarczy, by coś takiego wykonać na szerszą skalę. I skoro można to było zrobić w jednej gminie, to chyba można też w całym kraju. Wymaga to pewnej uwagi, skupienia, ale kiedy już zostaną zaspokojone potrzeby w postaci gimbusów czy remontów szkół, to może ktoś wpadnie pomysł, że trzeba wprowadzić do kształcenia nowe elementy.

W małej gminie Przodkowo zdecydowano się na takie posunięcie. O Gdańsku czy Gdyni pan nie wspomina.

Władze Gdańska też są tym zainteresowane i mają różne pomysły na wdrożenie interaktywnego nauczania w szkołach. Wiadomo, że małe instytucje są łatwiejsze w zarządzaniu i szybciej można się zdecydować na takie posunięcia. W Przodkowie udało się to między innymi dzięki temu, że to niewielka gmina. Nie bez znaczenia jest, że wójt tej gminy był wcześniej nauczycielem.

Kto w Polsce chętniej kupuje interaktywne pomoce naukowe: klienci indywidualni czy instytucje, szkoły lub samorządy finansujące zakupy dla szkół?

Pamiętajmy, że w naszym kraju około 90% tego typu zakupów ma charakter centralny, czyli stoi za tym Ministerstwo Edukacji Narodowej. Dlatego między innymi kupujące nasze produkty szkoły czy samorządy są rzadkością.

Czyli potrzebne jest przyzwolenie z ministerstwa, musi ono też wyłożyć odpowiednią sumę.

Wyłożyć lub zadecydować o odpowiednim finansowaniu. Najczęściej ministerstwo decyduje o kupnie takich pomocy naukowych, ale to może się zmienić, gdyż jakiś czas temu padła zapowiedź decentralizacji zakupów.

Ale samorządy też mogą poczynić tego typu inwestycje. Skoro gmina Przodkowo to zrobiła, to inne też mogą.

Tak, ale do władz miast i gmin musi dotrzeć, że w ten sposób inwestują w młodzież, że to jest forma konkurowania z sąsiadami. Jeżeli zrozumieją, że poziom wykształcenia mieszkańców jest jednym z istotniejszych elementów tej konkurencji, to chętniej będą sięgać do portfela. Na dziś samorządy bardziej zajmują się doraźnymi sprawami niż tym, co będzie za kilka lub kilkanaście lat. A przecież najskuteczniejszym sposobem walki z bezrobociem jest kształcenie ludzi. Stąd już krok do zrozumienia, że nowoczesne technologie są bardzo skutecznym narzędziem w podnoszeniu jakości edukacji.

Kiedy pytam samorządowców o plany na przyszłość, najczęściej wymieniają budowę drogi, kanalizację, czasem powstanie szkoły lub hali sportowej. Niezwykle rzadko wspominają o inwestycjach w kształcenie dzieci i młodzieży. Nie mają pieniędzy czy może nie widzą takiej potrzeby?

Są przyzwyczajeni do centralnych zakupów ministerstwa. Jest też bariera finansowa, gdyż zakup komputerów, rzutników czy łączy internetowych sporo kosztuje. Dlatego dopiero jakaś paląca potrzeba może wyzwolić zrozumienie dla takich inwestycji. Na przykład Euro 2012 lub podobne wielkie wyzwanie. A ponieważ coraz więcej mamy rozmów na ten temat, więc zapewniam, że w ciągu kilku lat bardzo zmieni się dzisiejsze podejście.

Teoretycznie niemal każda szkoła ma swoje sale komputerowe, jest podłączona do Internetu – szczególnie w Trójmieście. Zatem infrastruktura jest, trzeba tylko ją wykorzystać.

To zależy, w jakiej skali chcemy używać technologii ICT. Jeżeli szkoła zdecyduje się sięgać po nie na co dzień, do nauki różnych przedmiotów, to jedna sala komputerowa nie wystarczy. A zazwyczaj jest tak, że szkoła ma jedną salę wyposażoną w sprzęt, służącą do nauki obsługi komputera i podstaw informatyki. Jednak szersze zastosowanie technologii ICT dotyczy niemal wszystkich przedmiotów. W ten sposób można się uczyć języków obcych, biologii, fizyki, chemii oraz przedmiotów humanistycznych.

Powiedział pan „niemal wszystkich”, ale oferta YDP dotyczy głównie wspomnianych języków obcych oraz nauk przyrodniczych i ścisłych.

Tak jest w naszej działalności na obcych rynkach. Nauki ścisłe, przyrodnicze są łatwiejsze w adaptacji do innych kultur oraz języków. Natomiast na polskim rynku mamy pełną ofertę, także historię, język polski, geografię.

A te obce rynki czego uczą?

Jednym z wniosków wypływających z naszej działalności w innych krajach jest konieczność zwiększenia liczby komputerów w szkolnych placówkach. Szkoły, uczniów, nauczycieli oraz oczywiście rodziców trzeba zorganizować w ramach tzw. Virtual Learning Environment, czyli platform, w których te społeczności są ze sobą połączone. Na początek komunikacyjnie, ale później powstaje coś, co wciąż jeszcze nie doczekało się polskiej nazwy: Learning Management System, czyli sposób zarządzania procesem edukacji. Do tego systemu można od razu włączyć treści edukacyjne. Ta droga została już wytyczona przez kraje, które są dla nas pewnym wzorcem. Do tego wzorca aspirujemy, i to w różnych dziedzinach. Weźmy choćby liczbę połączeń tanich linii lotniczych. Później przyjdzie czas na inne działania. Możemy doskonale obserwować na przykład rynek brytyjski czy nawet malezyjski – tam również uczestniczyliśmy w budowaniu takiego systemu.

Co z rozwiązań malezyjskich można przenieść na polski, a więc i pomorski grunt?

W Malezji rząd wyłożył olbrzymie pieniądze na edukację, między innymi wyposażono wszystkich nauczycieli w notebooki, rzutniki, dostęp do Internetu. Moim zdaniem powinniśmy jednak pójść brytyjskim tropem. Tam przez kilka lat parlament przeznaczał znaczne kwoty na edukację. Były to tzw. znaczone pieniądze, które można było wydać wyłącznie na zastosowanie technologii ICT w edukacji. To posunięcie z jednej strony stworzyło rynek, z drugiej wywołało zainteresowanie środowiska. To chyba jest sensowniejszy sposób wydawania środków, bo angażuje nauczycieli, rodziców. Coś takiego w ostatecznym rozrachunku przynosi większe efekty niż pieniądze wydane centralnie.

Środki, którymi w najbliższych latach dysponuje nasz rząd oraz samorządy, są ogromne. Na sam program „Innowacyjna gospodarka” zarezerwowano 2 miliardy euro. Część tych pieniędzy trafi w tej czy innej postaci do szkół. Jak zostaną wykorzystane?

Wolałbym, żeby nie były to fundusze wydawane centralnie. Sukcesy europejskie związane są z budowaniem rynku. Dlatego lepiej stworzyć rynek rozwiązań, na którym będzie oczywiście konkurencja, a co za tym idzie – szansa na lepsze produkty. Jeżeli szkoły lub samorządy same będą kupować takie pomoce naukowe, to zaczną się z tym utożsamiać, będzie im zależało, by zostały jak najlepiej wykorzystane. Robiliśmy w Wielkiej Brytanii badania w szkołach. Wynika z nich, że uczniowie, którzy wykorzystywali w nauce technologie ICT, kończą edukację z lepszymi ocenami. Tylko musimy pamiętać, że te technologie są częścią większej całości. Dużo zależy od sposobu ich użycia. Nowe technologie wyrównują szanse. Pozwalają dopasować proces edukacyjny do indywidualnych potrzeb i możliwości ucznia. Dlatego średni poziom jest wyższy niż przy użyciu klasycznych środków nauczania.

W naszym regionie największe skupisko wyższych uczelni znajduje się oczywiście w Trójmieście. Czy to nie będzie skłaniało mieszkańców bardziej odległych terenów do kształcenia się na odległość?

Kształcenie na odległość ma ogromną przyszłość. Jednak korzystać z tego będą, a nawet już korzystają, najlepsze uczelnie. Nasze uniwersytety i politechniki muszą konkurować z zagranicznymi, i to tymi najlepszymi, najbardziej utytułowanymi – ze Stanów Zjednoczonych, Wielkiej Brytanii, Francji, Niemiec. Jeżeli ktoś decyduje się na taką formę kształcenia, to wybiera uczelnię, której dyplom będzie coś znaczył i oczywiście, na którą będzie go stać. Myślę, że nasze uczelnie nie są do tego jeszcze przygotowane. Nie są przyzwyczajone, że trzeba zabiegać o studenta, zadbać o marketing i oryginalne pomysły.

Na koniec jeszcze jedno pytanie: czy firma Young Digital Planet została w jakiejkolwiek formie włączona w tworzenie Regionalnego Programu Operacyjnego naszego województwa?

Nie powiem z całą stanowczością, że nie. Jesteśmy dużą firmą i może jakieś konsultacje czy inne inicjatywy były. Na pewno mamy spore doświadczenie, które zdobywaliśmy na całym niemal świecie i chętnie byśmy się nim podzielili. Na szczęście dotychczasowe podejście się zmienia, od mniej więcej roku uczestniczymy w różnych dyskusjach z samorządami i dostrzegamy zainteresowanie naszą wiedzą.

Dziękuję za rozmowę.

Skip to content