Bendyk Edwin

Edwin Bendyk jest pisarzem i publicystą obecnie związanym z działem naukowym tygodnika „Polityka”. Zajmuje się problematyką cywilizacyjną, kwestiami modernizacji, ekologii i rewolucji cyfrowej. Publikuje także w tygodniku „Computerworld”, „Res Publice Nowej”, Krytyce Politycznej”, „Przeglądzie Politycznym” i magazynie „Mobile Internet”. Jest także nauczycielem akademickim, wykłada w Collegium Civitas, gdzie kieruje Ośrodkiem Badań nad Przyszłością, a także w Centrum Nauk Społecznych PAN. Został też członkiem rady Fundacji Nowoczesna Polska oraz rady programowej Zielonego Instytutu.

O autorze:

Próbę analizy trendów informatyzacji należy zacząć od ponowienia pytania, które w 2003 r. zbulwersowało środowiska informatyczne. Does IT Matter? Czy informatyka ma jeszcze znaczenie? - zapytał wówczas Nicholas Carr, redaktor Harvard Business Review. Pytając, miał gotową odpowiedź: Nie, informatyka straciła znaczenie jako strategiczny czynnik budowania przewagi konkurencyjnej organizacji. Nie zamierzam powtarzać dyskusji, jaką wywołały najpierw artykuł, a potem książka Carra. Przypomnę tylko główną tezę: zdaniem amerykańskiego prowokatora informatyka rozumiana jako IT, czyli technologie informatyczne, dojrzała w sensie technicznym na tyle, że stała się częścią normalnej infrastruktury organizacji, podobnie jak elektryczność, woda czy transport. Nikt już nie buduje przewagi konkurencyjnej, opierając się na elektryfikacji, co nie znaczy, że systematyczne przerwy w dostawach elektryczności nie mają wpływu na rynkową pozycję firmy. Podobnie, zdaniem Carra, jest z IT - rozwiązania techniczne uległy już tak daleko idącej standaryzacji, że ich wdrożenia przestały wymagać szczególnych kompetencji i stały się dostępne dla wszystkich. A co jest powszechnie dostępne, słabo nadaje się na czynnik budowania przewagi. Kluczem jest wydobycie korzyści z istniejącej infrastruktury Po pięciu latach od ogłoszenia obrazoburcza teza Carra została wsparta przez ciekawe badania, które jednocześnie pokazują, w którym kierunku zmierzać będą (lub powinny) wysiłki informatyzacyjne w najbliższym czasie. Organizacja Nokia Siemens Networks (NSN) zamówiła w London School of Business opracowanie, którego efektem jest nowy wskaźnik mierzący jakość wykorzystania technologii teleinformatycznych przez społeczeństwa. Jak wiadomo, podobne pomiary wykonuje wiele instytucji: World Economic Forum co roku publikuje ranking krajów na podstawie Network Readiness Index, The Economist Intelligence Unit przygotowuje e-Readiness Index. Opracowany dla NSN miernik nosi nazwę "The Connectivity Scorecard" i koncentruje się na pomiarze efektywności wykorzystania technologii ICT w aspekcie ich wpływu na poziom usieciowienia czy też zwiększenia intensywności komunikacyjnej w danym społeczeństwie. Poszukiwanie takiego wskaźnika jest wynikiem prostego założenia, że w gospodarce informacyjnej jakość przetwarzania informacji i komunikacji jest czynnikiem o bezpośrednim i kluczowym znaczeniu dla sprawności ekonomicznej. Wyniki nie zaskakują, jeśli chodzi o kolejność w rankingu. Spośród 16 badanych krajów o gospodarkach napędzanych innowacyjnością pierwsze miejsce zajęły Stany Zjednoczone, ostatnie Polska. Zaskakujące okazało się jednak, że nawet lider zdobył zaledwie 6,97 punktów na 10 możliwych. W komentarzu do wyników można przeczytać, że mimo bardzo wysokiego poziomu infrastruktury ICT w najbardziej rozwiniętych krajach wciąż jeszcze wiele zostaje do zrobienia, jeśli chodzi o jej wykorzystanie dla uzyskania korzyści gospodarczych. Na przykład w doskonale "osieciowanej" Korei Południowej przedsiębiorstwa ciągle bardzo słabo wykorzystują możliwości, jakie stwarza telefonia IP. Najogólniej wyniki The Connectivity Scorecard można podsumować stwierdzeniem, że infrastruktura ICT nie ma już znaczenia (pod warunkiem, że w ogóle istnieje - wynik Polski: 2,18 pkt pokazuje, że mamy słabą infrastrukturę, a tej, która jest, nie umiemy wykorzystać). Wciąż jednak nawet najlepsi nie potrafią do końca wydobyć tkwiących w niej korzyści. A skoro tak, to można się spodziewać, że rozwój ICT będzie się zwracać w kierunku innowacji zmierzających do uaktywnienia potencjału infrastruktury Sieci. Dopiero Sieć to komputer Przechodząc do wskazania kilku kluczowych trendów, znowu posłużę się przemyśleniami Nicholasa Carra. W swojej najnowszej książce "The Big Switch" lansuje on tezę, że w sensie technologicznym wkraczamy w epokę World Wide Computer. Upowszechnienie Internetu wraz z rozwojem takich firm infrastrukturalnych jak Google powoduje, że fizycznego sensu nabrało stare motto firmy Sun Microsystems: dopiero Sieć to komputer. Tyle tylko, że jak zwykle wszystko potoczyło się inaczej, niż przewidywały plany marketingowe. Oto bowiem już od wielu lat korporacje takie jak Sun i Oracle promowały idee network computingu, grid computingu, utility computingu, by wymienić tylko kilka nazw. Uczestniczyłem w wielu spotkaniach pokazujących ekonomiczne zalety wdrożenia rozproszonych modeli przetwarzania i traktowania oprogramowania jak usługi. W istocie jednak to dopiero konsumenci odkryli moc ukrytą w Sieci w ramach rewolucji Web 2.0. Twórca tego pojęcia, Tim O’Reilly, proponuje następującą definicję: "Web 2.0 polega na wykorzystaniu Sieci jako platformy łączącej wszystkie sieciowe urządzenia; aplikacje Web 2.0 to rozwiązania czyniące najlepszy użytek z tej platformy: dostarczają oprogramowanie w postaci nieustannie dostępnej usługi, która staje się coraz lepsza w miarę korzystania z niej; wykorzystuje i łączy dane z różnych źródeł, włącza indywidualnych użytkowników, dostarczając jednocześnie narzędzia umożliwiające tym użytkownikom samodzielne przetwarzane danych i łączenie usług; tworzy efekty sieciowe poprzez architektury uczestnictwa". Wikipedia, Flickr, Facebook, YouTube, MySpace, Google Dokumenty to nazwy niektórych tylko dostępnych w Internecie usług i realizacji fenomenu Web 2.0. Niepostrzeżenie setki milionów ludzi całkowicie zanurzyły się w Sieci, powierzając jej wszystko: najintymniejsze informacje, dane finansowe, a także nieskończoną energię kreatywności. To nie pierwszy przypadek, kiedy konsumenci wyprzedzili rynek. Wcześniej podobna sytuacja wydarzyła się z telefonią IP. Mówiło się o niej już pod koniec lat 90., firmy takie jak Cisco prezentowały rozwiązania biznesowe. Biznes jednak nie reagował. Dopiero gdy pojawił się na rynku Skype, konsumencka wersja VoIP, lawina ruszyła. Rozwój Web 2.0 i Skype ujawniają kilka bardzo ważnych trendów. Po pierwsze, infrastruktura ICT jest już rzeczywiście na tyle dojrzała, by stać się podstawą masowego świadczenia usług poprzez Sieć w modelu utility computing. Tyle tylko, że jednocześnie ujawniła się prawda, z której zaakceptowaniem tradycyjne instytucje: biznes, administracja, szkoły mają olbrzymi problem. Oto bowiem okazuje się, że w świecie, w którym "IT Doesn’t Matter", głównym źródłem innowacyjności na rynku jest sam konsument. Wcześniej niż owe tradycyjne organizacje dostrzega on nowe możliwości, bardziej skłonny jest do ryzyka i dzielenia się swoimi pomysłami w otwartych modelach dystrybucji wiedzy (Wikipedia, Creative Commons, Open Source). Władza prosumenta Umasowienie i otwarcie innowacyjności będzie miało coraz większy wpływ na funkcjonowanie organizacji. Szybkość, parametr zawsze istotny w biznesie, w świecie Web 2.0 nabrał szczególnego znaczenia. Nie ma już czasu na długotrwałe doskonalenie produktu przed wprowadzeniem go na rynek, weszliśmy w epokę "perpetual Beta". Polega on na wprowadzaniu produktów i usług, których cykl rozwojowy może być jeszcze niezakończony, i zaproszeniu konsumentów do współudziału w doprowadzeniu oferty do kolejnych etapów doskonałości. Metoda ta najlepiej sprawdza się w sektorze informatycznym, ale stosują ją coraz częściej firmy zajmujące się wytwarzaniem tak wyrafinowanych produktów, jak komputerowe skanery medyczne czy samochody. A efekty? Wymienia je O’Reilly:
  • szybszy "time to market" (czas dotarcia na rynek),
  • zmniejszone ryzyko,
  • bliższe relacje z konsumentami,
  • zwrot informacyjny z rynku w czasie rzeczywistym,
  • zwiększone zaangażowanie odbiorców.
By sprostać wymogom rynku zdominowanego przez prosumenta, trzeba zacząć stosować jego metody działania. Dlatego IBM, wykorzystując zestaw aplikacji Lotus, wprowadza system samodzielnego tworzenia biznesowych rozwiązań software’owych "na miarę", które można budować samodzielnie techniką "mash-up", czyli składania całości z funkcjonalnych cegiełek. Model prosumencki przesuwa się do relacji business to business, czego spektakularnym przykładem jest Amazon.com. Serwis ten otworzył interfejs aplikacyjny, umożliwiając firmom trzecim tworzenie rozwiązań informatycznych budujących wartość dodaną do zasobów informacyjnych gromadzonych w repozytoriach Amazona. Z możliwości tej korzystają już tysiące przedsiębiorstw. Otwieranie front-endu będzie niewątpliwie jednym z najważniejszych trendów, który zacznie także przenikać do świata aplikacji mobilnych, czego dowodzą inicjatywy takie jak Android (proponowana przez Google otwarta platforma oprogramowania dla urządzeń mobilnych). Równolegle jednak do trendu polegającego na rosnącej otwartości komunikacji, na rynku trwać będzie rozwój technologii umożliwiających konsolidację i lepszą eksploatację kluczowego zasobu - informacji. Rozwój infrastruktury teleinformatycznej przesunął równowagę na rynku w stronę prosumenta, jednocześnie jednak coraz większy udział technologii w komunikacji i transakcjach powoduje, że automatycznie produkowane są olbrzymie ilości bardzo interesujących danych. Właściciele serwerów obsługujących ruch w Sieci zyskali dostęp do potencjalnie bezcennej wiedzy o coraz bardziej kapryśnym kliencie. Wydobycie tej wiedzy warte będzie każdych pieniędzy, nic więc dziwnego, że ostatni rok obfitował w megaporozumienia największych graczy na rynku IT, inwestujących intensywnie w rozwiązania business intelligence. Decydujący konflikt Coraz większa zdolność do rozpoznawania potrzeb klienta na podstawie informacji, jakie zostawia on w Sieci, prowadzi z kolei do rozwoju trendu przeciwstawnego do trendu otwartości i masowej innowacyjności, uruchomionego przez Web 2.0. Otóż, jak zauważa Jonathan Zittrain, specjalista w dziedzinie prawa internetowego z Oxford University, umasowienie Internetu (korzysta z niego już 1,3 mld osób) powoduje standaryzację oczekiwań ze strony "zwykłej większości" konsumentów. Są oni gotowi wolność i spontaniczność Web 2.0 zamienić na łatwość użytkowania i bezpieczeństwo. W rezultacie swoimi decyzjami na rynku wspomagają oni trend zwany przez Zittraina "appliantyzacją". Polega on na kupowaniu gotowych, często zamkniętych rozwiązań spełniających określone funkcje (np. konsole do gry, które choć w sensie funkcjonalnym są komputerami osobistymi, to jednak w przeciwieństwie do PC umożliwiają stosowanie jedynie aplikacji dopuszczonych przez producenta konsoli). W istocie więc o przyszłości ICT zadecyduje rozstrzygnięcie konfliktu między dwoma megatrendami: prosumpcją opartą na otwartej innowacyjności i standardową konsumpcją polegającą na dostarczaniu zamkniętych technologicznie rozwiązań opartych na precyzyjnym, spersonalizowanym marketingu. Konflikt między tymi megatrendami będzie miał wpływ na cały rynek ICT, zarówno jego konsumencką, jak i korporacyjną część.

O autorze:

Kryzysy energetyczne lat 70. XX wieku, krach teorii konwergencji, załamanie się projektów modernizacji w krajach Trzeciego Świata dowodziły, że idea postępu jako dziejowej konieczności umarła.
„Świat ogarnął kryzys przyszłości” – stwierdził w 1980 r. prof. Krzysztof Pomian, znakomity historyk i filozof. Był to okres ciekawy nie tylko dla Polski przeżywającej rewolucję „Solidarności”. Rewolucja ta bowiem nie oznaczała jedynie fiaska projektu realnego socjalizmu, lecz była również jednym z symptomów wyczerpania całego globalnego systemu społeczno-gospodarczego we wszystkich jego wcieleniach. Kryzysy energetyczne lat 70. XX wieku, krach teorii konwergencji, załamanie się projektów modernizacji w krajach Trzeciego Świata dowodziły, że idea postępu jako dziejowej konieczności umarła. W 1979 r. prezydent Jimmy Carter stwierdził, że po raz pierwszy Amerykanie nie mogą mieć gwarancji, iż kolejne pokolenia będą miały lepsze życie niż ich rodzice . Świat stanął wobec konieczności głębokiej transformacji społecznej i gospodarczej, która wraz z przejściem do epoki postindustrializmu oznaczała konieczność zmiany metod rządzenia, w tym tworzenia planów strategicznych, określających możliwe działania wobec różnych wariantów rozwoju przyszłości, coraz mniej przewidywalnej. Stare techniki prognozowania oparte na prostych analizach trendów i ich ekstrapolacji przestały spełniać swoje zadanie, bo nie dość, że coraz trudniej było wskazać trendy rozwojowe, to jeszcze trudniejsze okazało się przewidywanie konsekwencji równoległego rozwoju wielu przeciwstawnych tendencji.
Stare techniki prognozowania oparte na prostych analizach trendów i ich ekstrapolacji przestały spełniać swoje zadanie.
Jednym z dogmatów rozwojowych, który załamał się w latach 70. XX stulecia, było przekonanie, że zużycie ropy na świecie rośnie w określonym tempie, co pozwalało projektować strategie rozwoju korporacji naftowych. Po kryzysie w 1973 r. okazało się, że na skutek gwałtownego wzrostu cen ropy wzrost zużycia radykalnie się zmniejszył, a rozwój gospodarczy zaczął odbywać się głównie poprzez zwiększanie intensywności energetycznej. I mimo że ceny ropy w latach 80. radykalnie spadły, to jednak dynamika wzrostu popytu na ropę nie wróciła do przedkryzysowej normy. Olbrzymie floty gigantycznych tankowców, które miały obsłużyć ten oczekiwany powrót „do normy”, poszły na żyletki . Zmiana w podejściu do zarządzania
„Foresight” nie jest w istocie techniką prognozowania, lecz metodą prowadzenia „konwersacji strategicznych”, których celem jest zbiorowa refleksja nad przyszłością. Konwersacja strategiczna wymaga bezpośredniego zaangażowania stakeholderów, gdyż przyszłość bardziej należy stworzyć, znając warunki brzegowe rozwoju, niż ją odkryć.
Jedną z nielicznych korporacji naftowych, które uniknęły błędów prognostycznych, okazał się Shell. Firma odeszła od tradycyjnego prognozowania „forecasting”, by zacząć stosować techniki zwane dziś jako „foresight”. Ich istotą nie jest produkcja wiedzy o pewnej przyszłości, bo to okazuje się po prostu niemożliwe. Foresight nie jest w istocie techniką prognozowania (choć wykorzystuje metody tradycyjnego forecastingu jako jedno ze źródeł tworzenie bazy informacyjnej), lecz metodą prowadzenia „konwersacji strategicznych”, których celem jest zbiorowa refleksja nad przyszłością. Analiza strategiczna (czy raczej owa konwersacja strategiczna) nie jest wyłącznie racjonalistyczną procedurą techniczną, którą można zlecić zewnętrznym ekspertom, lecz wymaga bezpośredniego zaangażowania stakeholderów, gdyż przyszłość bardziej należy stworzyć, znając warunki brzegowe rozwoju, niż ją odkryć. Przyszłość nie ma charakteru zdeterminowanego, lecz otwarty.
Sztuka zarządzania w zmiennym kontekście społeczeństwa poprzemysłowego wymaga umiejętności nieustannej weryfikacji celu strategicznego i krytyki środków dotarcia do niego.
Wraz z tym odkryciem nastąpiła zmiana w podejściu do zarządzania dużymi organizacjami: korporacjami, regionami, państwami. Pojawiło się pojęcie „refleksywność”, odwołujące się do kognitywnych koncepcji pojedynczej i podwójnej pętli uczenia, oznaczające najogólniej, że sztuka zarządzania w zmiennym kontekście społeczeństwa poprzemysłowego wymaga umiejętności nieustannej weryfikacji celu strategicznego i krytyki środków dotarcia do niego, by odpowiednio modyfikować etapowe decyzje .
Największym problemem jest oczekiwanie od strategów prostych recept, a nie krytyki działania racjonalnej z założenia władzy.
Węgry jako pierwszy z krajów postsocjalistycznych zastosowały metody foresightu, a ich doświadczenie wyraźnie pokazuje, że największym problemem w wykorzystaniu tej metody był przestarzały aparat zarządzania krajem. Wywodzi się on jeszcze z epoki biurokracji socjalistycznej opartej na sztywnej hierarchii, oczekującej od strategów prostych recept, a nie krytyki działania racjonalnej z założenia władzy. Z tego też względu wyniki foresightu najczęściej lądują na półce, bo władza traktuje je jako bezużyteczne .
W krajach „starej” UE metody foresightu leżały u podstaw modernizacji aparatu władzy, tak by uwolnił się od biurokratycznej skostniałości właściwej dla epoki przemysłowej.
Jednocześnie jednak pojawił się bodziec skłaniający do podejmowania projektów typu foresight, wynikający z procesu integracji z Unią Europejską. W krajach „starej” UE metody foresightu stosowane są od lat 80. XX w. i leżały u podstaw modernizacji aparatu władzy, tak by uwolnił się od biurokratycznej skostniałości właściwej dla epoki przemysłowej. Foresight stał się ważnym narzędziem analizy strategicznej, poprzedzającym ważne decyzje dotyczące alokacji środków na rozwój nowych technologii, nowych przemysłów czy też kierunków rozwoju krajów i regionów . Jak to się robi w Polsce? Co sprawdziło się w UE, powinno także sprawdzić się w krajach do integracji aspirujących, stąd zachęty, by foresight stosować, gdzie się tylko da. W Polsce, gdzie w 1999 r. trudno było znaleźć przychylne ucho dla tej formy analizy strategicznej, a pierwsza próba zorganizowania narodowego programu foresight w dziedzinie nauki i technologii spaliła na panewce (brak politycznego zainteresowania), siedem lat później realizowano już blisko 20 programów branżowych, regionalnych oraz narodowy.
Zdecydowana większość projektów realizowanych w Polsce nie spełnia podstawowego założenia metody foresight jako konwersacji strategicznej.
Ilość nie oznacza jednak jakości. Zdecydowana większość tych projektów nie spełnia podstawowego założenia metody foresight jako konwersacji strategicznej. Programy realizowane są najczęściej na zlecenie jakiegoś organu władzy, np. urzędu marszałkowskiego, a wykonawcą jest zazwyczaj konsorcjum wyłonione w procedurze przetargowej. Warunki zamówienia publicznego precyzują zazwyczaj sztywno warunki brzegowe analizy, nierzadko z określeniem przez zamawiającego liczby i tematyki pól badawczych (Foresight Mazovia) .
Nie uwewnętrznia się refleksji strategicznej w codziennych działaniach potencjalnych interesariuszy projektu.
Warunki zamówienia definiują także produkt projektu, którym ma być raport zawierający wyniki i scenariusze rozwoju przyszłości. Wyniki te są zazwyczaj upowszechniane w formie trudnej do przeczytania publikacji oraz podczas zrytualizowanych konferencji nazywanych „konsultacjami społecznymi”. Działania te, choć często prowadzą do ciekawych wyników cząstkowych, nie spełniają jednak podstawowego zadania – uwewnętrznienia refleksji strategicznej w codziennych działaniach potencjalnych interesariuszy projektu .
Elementarna logika podpowiada, by najpierw zrealizować projekt foresight, aby wykorzystując dyskusję, jaką wywołał, i wiedzę, do jakiej powstania doprowadził, podjąć bardziej racjonalne decyzje strategiczne.
Skrajnym przypadkiem braku takiego uwewnętrznienia jest Narodowy Program Foresight Polska 2020. Rozpoczął się on w 2007 r., a zakończy jesienią tego roku. To oznacza, że harmonogram tego projektu całkowicie nie przystaje do rzeczywistych kalendarzy politycznych i administracyjnych. Jak bowiem wiadomo, trwają w tej chwili prace nad reformą systemu nauki i szkolnictwa wyższego, nad strategią rozwoju nauki, i dzielone są pieniądze w ramach funduszy strukturalnych UE, z których niemała część popłynie do sfery nauki i szkolnictwa wyższego. W zasadzie większość kluczowych decyzji zapadnie, zanim poznamy wyniki NPF Polska 2020. Elementarna logika podpowiada, by przyjąć – podobnie jak Czesi – odwrotną kolejność: najpierw zrealizować projekt foresight, by potem, wykorzystując dyskusję, jaką wywołał, i zdobytą dzięki niemu wiedzę, podjąć bardziej racjonalne decyzje strategiczne . Kluczowe elementy sukcesu Niestety, nadmierne zainteresowanie zamawiającego wynikami foresightu także zazwyczaj nie służy sprawie. Dzieje się tak wówczas, gdy instytucja zamawiająca analizę, np. organ władzy regionalnej, bezpośrednio ingeruje w proces konwersacji strategicznej, powodując jej skrzywienie, tak by wyniki analizy stanowiły wsparcie dla aktualnej polityki władzy, a nie podstawę działań perspektywicznych. Z tego względu w obszernej literaturze dotyczącej praktyki foresightu zwraca się uwagę na kilka elementów kluczowych dla osiągnięcia sukcesu. Po pierwsze, należy jasno określić cel projektu. Dobrze zdefiniowany foresight może np. koncentrować się na próbie odpowiedzi na pytanie o perspektywiczne kierunki rozwoju technologii w danym regionie. Takie zawężenie tematu pozornie tylko oznacza redukcjonizm – dobrze poprowadzona refleksja na temat technologii doprowadzi do ujawnienia bardzo obszernej wiedzy dotyczącej gospodarki, społeczeństwa, edukacji, kultury, postaw. Stanie się tak wówczas, gdy rozwój technologii zostanie potraktowany jako symptom procesów zachodzących w strukturach społecznych, a nie jako cel sam w sobie. Po drugie, należy dobrze zidentyfikować interesariuszy projektu i możliwie największą liczbę z nich włączyć do aktywnego udziału. W przypadku foresightu regionalnego w ćwiczeniu powinni uczestniczyć przedstawiciele władz lokalnych, przedsiębiorcy, środowisko akademickie i aktorzy społeczni. Należy unikać profesjonalizacji przedsięwzięcia, zapraszając do udziału w konwersacji strategicznej wyłącznie ekspertów. Nie istnieją eksperci od przyszłości, dotyczy ona wszystkich. Po trzecie, należy precyzyjnie ustalić relacje z zamawiającym, tak by nie miał on bezpośredniego wpływu na produkcję wyników (może być co najwyżej jednym z interesariuszy uczestniczącym w konwersacji). Należy natomiast zrozumieć jego chęć kontroli nad środkami, co można zapewnić, rozdzielając nadzór nad merytorycznymi funkcjami foresightu od audytu formalnofinansowego. Po czwarte, należy nieustannie podkreślać, że wynikiem foresightu jest nie strategia, lecz refleksja strategiczna ponad podziałami, której wyniki posłużą dopiero odpowiednim aktorom (np. władzom) do podjęcia odpowiednich działań strategicznych i politycznych.
Kluczowe elementy sukcesu: jasno określić cel projektu, dobrze zidentyfikować interesariuszy, precyzyjnie ustalić relacje z zamawiającym, podkreślać, że wynikiem foresightu nie jest strategia, lecz refleksja, założyć, że foresight jest procesem, który powinien być prowadzony nieustannie.
Po piąte, należy założyć już na samym starcie, że foresight jest procesem, który powinien być być prowadzony nieustannie, a nie tylko w jednorazowym projekcie realizowanym dlatego, że akurat pojawiły się unijne pieniądze, których nie można inaczej wydać. Foresight to nowoczesne narzędzie debaty nad przyszłością społeczeństwa obywatelskiego, a nie technokratyczna zabawka mająca zastąpić szklaną kulę.

O autorze:

„Światowy system energetyczny jest na rozdrożu. Obecnych trendów produkcji i zużycia energii nie da się utrzymać ze względów środowiskowych, ekonomicznych, społecznych. Trendy te jednak można i trzeba zmienić […]. To, czego potrzeba, to w istocie rewolucja energetyczna”. Kolejny manifest Greenpeace? Nic podobnego, do rewolucji nawołuje organizacja raczej konserwatywna – Międzynarodowa Agencja Energetyczna (International Energy Agency – IEA) – w opracowaniu World Energy Outlook 2008. Dokument powstał, zanim jeszcze na dobre rozwinął się globalny kryzys, którego skutkiem jest gwałtowne zmniejszenie popytu na energię i jej nośniki. A skoro mniejszy popyt, to także niższe ceny na światowych giełdach surowcowych. Powód do radości? Tylko pozornie. Bo tania ropa i gaz to rynkowy sygnał zniechęcający inwestorów do finansowania prac nad nowymi technologiami. Zwłaszcza że mają tyle kłopotów wynikających z bałaganu na rynku finansowym. Również przemysł stracił chęć do modernizacyjnych inwestycji, do których miał zachęcać w Europie system limitów emisji dwutlenku węgla. Jeszcze pół roku temu, gdy cementownie, huty i elektrownie pracowały pełną mocą, wiele firm musiało dokupywać dodatkowe zezwolenia na emisję na giełdzie, a cena za tonę CO2 przekraczała 30 euro. Produkcja zmalała, spadły obroty na emisyjnej giełdzie, a wraz z nimi ceny. Gdy można truć po 10 euro za tonę, chęć do szukania rozwiązań niskoemisyjnych gwałtownie maleje.
Spadki cen mają charakter chwilowy i epoka tanich surowców nigdy nie wróci. Nawet gdyby okazało się, że ropy lub gazu nie brakuje, to inwestycje w poszukiwanie i udostępnianie nowych złóż zostały tak zaniedbane, że przywrócenie potencjału wydobycia surowców kopalnych zdolnego zaspokoić niekryzysowy popyt wymaga niewiele mniejszych inwestycji niż prace nad nowymi technologiami.
Wiadomo jednak, że spadki cen mają charakter chwilowy i epoka tanich surowców nigdy nie wróci. Bo nawet gdyby okazało się, że ropy lub gazu nie brakuje, to inwestycje w poszukiwanie i udostępnianie nowych złóż zostały tak zaniedbane, że przywrócenie potencjału wydobycia surowców kopalnych zdolnego zaspokoić niekryzysowy popyt wymaga niewiele mniejszych inwestycji niż prace nad nowymi technologiami. Skoro więc i tak trzeba inwestować (IEA szacuje, że koszt rewolucji technologicznej w sektorze energii to jakieś 45 bilionów dolarów na inwestycje w skali świata do roku 2050), to lepiej w przyszłość niż w przeszłość.   Amoniak XXI wieku Problem z przyszłością polega na tym, że nikt jej jeszcze nie widział. Steven Chu, fizyk noblista i szef Departamentu Energii USA w rządzie Baracka Obamy, przekonuje, że trzeba zwiększyć inwestycje na badania i rozwój tak, by uzyskać kilka przełomów technologicznych o jakości noblowskiej. Porównuje obecną sytuację do stanu, w jakim świat znajdował się sto lat temu. Energii wówczas nie brakowało, dzięki czemu przemysł rozwijał się dynamicznie, a społeczeństwa Zachodu bogaciły się błyskawicznie, dostosowując do wzrostu zamożności styl życia i konsumpcji. Pojawił się problem zaspokojenia popytu na dobra w społeczeństwie, w którym ludziom już nie wystarczała para butów i jedna koszula na cały rok. Gdy wydawało się, że zgodnie z proroctwem Marksa kapitalizm ugnie się pod ciężarem własnych sprzeczności, na ratunek przyszła rewolucja technologiczna. Najważniejszym jej elementem był wynalazek syntezy amoniaku z azotu zawartego w powietrzu, opatentowany przez Fritza Habera. Wykorzystanie tego osiągnięcia spowodowało niemal z dnia na dzień rozwój przemysłu nawozów sztucznych i wybuch pierwszej zielonej rewolucji: rolnictwo gwałtownie zwiększyło wydajność, widmo głodu odsunęło się na daleki plan. Koledzy Habera uzupełnili puzzle, dokładając inne syntezy chemiczne, dzięki którym człowiek nauczył się produkować to, z czym zaczynała mieć kłopoty natura: barwniki, włókna syntetyczne, tworzywa sztuczne, leki. Steven Chu wierzy, że dziś mamy szansę na podobny przełom w dziedzinie energetyki. Nie wiadomo jeszcze, które konkretnie technologie zdefiniują wiek XXI, podobnie jak synteza amoniaku Habera zdefiniowała wiek XX. Dlatego IEA w swych opracowaniach radzi, by inwestować w sposób portfelowy, rozwijając całe spektrum możliwych technologii, zarówno służących wytwarzaniu energii, jak i zwiększaniu efektywności jej zużycia.   Może jednak atom? Należy jednak szczerze przyznać: technologie są niezbędnym czynnikiem zmiany, lecz wtórnym w istocie wobec kwestii politycznych, społecznych i ekonomicznych. Przecież nie od dziś lobby fizyków atomowych przekonuje, że najlepszym rozwiązaniem problemów energetycznych świata są elektrownie jądrowe: ekologicznie czyste, technologicznie najbezpieczniejsze wśród wszystkich źródeł energii, powodujące, że rynek paliw jest zdywersyfikowany i stabilny. Dlaczego więc po euforii lat 70. XX stulecia entuzjazm dla atomu wygasł i wraca nieśmiało dopiero teraz? Powodów jest wiele. Najważniejszy to polityczny. Cywilne programy jądrowe były niejako skutkiem ubocznym projektów wojskowych rozwijanych w Stanach Zjednoczonych, Związku Sowieckim, Francji i Wielkiej Brytanii. Szybko stały się podstawą, na której rozwinęły się przemysły o dużym potencjale eksportowym. Problem pojawił się, gdy w kolejce po reaktory ustawiły się takie państwa, jak Irak, Iran czy Korea Północna. To właśnie jest koszt polityczny, czyli świadomość, że upowszechnianie energetyki jądrowej w kolejnych krajach oznacza de facto utratę kontroli nad procesem atomowych zbrojeń. I to głównie z tego względu Amerykanie wstrzemięźliwie podchodzą do wznowienia programu jądrowego u siebie – wiedzą, że osłabią wówczas swoją legitymację do kontrolowania projektów rozwijanych w Pakistanie, Indiach czy Korei Południowej. Zagrożenie wyścigiem zbrojeń to nie wszystko. Na energetykę jądrową mogą sobie pozwolić tylko sprawne lub silne państwa. Zarówno ze względu na skalę inwestycji, jak i potrzebną infrastrukturę cywilizacyjną (dostęp do kadr, bezpieczeństwo), atom wymusza centralizację władzy i koncentrację kapitału (uruchomienie 1000 MW mocy to inwestycja rzędu 3 mld euro). Widać więc wyraźnie, że to opcja dobra dla dojrzałych, sprawnie działających demokracji lub niekoniecznie sprawnych, lecz silnych dyktatur. Coraz więcej analityków poddaje ten model krytyce. Czyż nie żyjemy w epoce internetu, który umożliwił koordynację społeczną bez konieczności tworzenia scentralizowanych, hierarchicznych instytucji? Czy w czasie, gdy internet zyskiwał popularność, nie dojrzewały nowe technologie wytwarzania energii niewymagające wielkich instalacji systemowych: mikroturbiny gazowe, biogazownie, elektrownie wiatrowe, elektrownie słoneczne, małe elektrownie wodne? Są one w stanie dostarczać energię blisko odbiorców, wymagają niewielkiego zaangażowania kapitałowego – w sam raz, by mogły je udźwignąć spółdzielnie lub lokalne spółki producenckie. Oczywiście, alternatywne źródła energii mają wady – turbiny wiatrowe i panele słoneczne charakteryzują się niską dyspozycyjnością i wymagają równoważenia przez bardziej stabilne rozwiązania, np. turbiny gazowe, które łatwo uruchamiać, by uzupełniać szczytowe zapotrzebowanie na moc.   Inteligentna sieć Rozproszone źródła energii stają się jednak coraz bardziej atrakcyjne w sytuacji, gdy idea „smart grid”, czyli inteligentnej sieci przesyłowej, przestała być już tylko marzeniem futurystów. Dzięki internetowi, informatyce i najnowszym rozwiązaniom automatyki sieć energetyczna może dostarczać prąd w sposób coraz bardziej przemyślny. Wystarczyłoby zainstalować w urządzeniach domowych – lodówkach, klimatyzatorach, bojlerach – przekaźniki włączone w sieć. Gdy akurat ze względu na porę dnia wystąpi szczytowe przesilenie, urządzenia najmniej potrzebne będą samoczynnie się wyłączać na krótki czas. Nikt przecież nie zauważy krótkiej przerwy w pracy np. klimatyzatora. To tylko pierwszy krok do sieci w pełni inteligentnej, w której dodatkowym czynnikiem regulującym ruch elektronów będzie dynamiczne określanie cen energii w zależności od chwilowego popytu. W okresach poza szczytem opłaci się wykorzystywać tani prąd np. do produkcji wodoru potrzebnego do zasilania ogniw paliwowych. Gdy w czasie szczytu ceny ruszą w górę, zgromadzony wodór można natychmiast przetworzyć na energię. W takim systemie elektrownią szczytową może być każdy dom i każdy samochód, pod warunkiem oczywiście, że spełnią się wizje gospodarki wodorowej. Zanim jednak do tego dojdzie, już dziś widać pozytywne skutki społeczne i gospodarcze rozwoju energetyki ze źródeł rozproszonych. W Danii praca w spółdzielniach obsługujących elektrownie wiatrowe daje zatrudnienie ponad stu tysiącom ludzi żyjących w obszarach wiejskich. W Niemczech energetyka alternatywna stworzyła podstawy bytu tysiącom przedsiębiorstw i dała pracę większej liczbie ludzi niż sektor energetyki jądrowej.   Lekcje dla Polski To cenne doświadczenia, z których powinna skorzystać Polska, budując swoją strategię energetyczną. Sytuacja nie jest łatwa, bo nad naszym krajem ciąży dziedzictwo energetyki węglowej. Polską racją stanu jest jak najszybsza dywersyfikacja energetycznego portfela. Na jakim modelu powinna się ona oprzeć? Czy próbować sił we wszystkich obszarach: budować elektrownie atomowe i sieć źródeł alternatywnych, jednocześnie modernizując starą bazę energetyki węglowej? Tak byłoby najbezpieczniej, skąd jednak wziąć niezbędny kapitał? Pilnie potrzebne są strategiczne decyzje uwzględniające wszystkie aspekty: dostępne technologie, które można rozwijać w Polsce, efekty ekologiczne, społeczne i polityczne.
Polska nie dysponuje nawet dobrze przygotowanym bilansem energetycznym ani analizą alternatywnych miksów energetycznych, by można było badać ewentualne zapotrzebowanie na energię w perspektywie roku 2030. Myślenie liniowe, zakładające, że popyt na energię będzie systematycznie rósł wraz z rozwojem gospodarki, jest niezwykle niebezpieczne i może doprowadzić do podobnych błędów, jak nietrafione prognozy wzrostu popytu na gaz.
Niestety, w tej chwili Polska nie dysponuje nawet dobrze przygotowanym bilansem energetycznym ani analizą alternatywnych miksów energetycznych, by można było badać ewentualne zapotrzebowanie na energię w perspektywie roku 2030. Myślenie liniowe, zakładające, że popyt na energię będzie systematycznie rósł wraz z rozwojem gospodarki, jest niezwykle niebezpieczne i może doprowadzić do podobnych błędów, jak nietrafione prognozy wzrostu popytu na gaz. Podejmując dziś decyzję o energetyce jądrowej, decydenci powinni mieć świadomość, iż nie można wykluczyć scenariusza, że w chwili uruchamiania elektrowni atomowej nie będzie popytu na jej produkcję. Niestety, prace nad strategią energetyczną przedłużają się, a w tym czasie w teren ruszyli cudotwórcy obiecujący fantastyczne rozwiązania technologiczne, które mają zbawić Polskę. Podziemne zgazowania i spalanie węgla oraz przemiana dwutlenku węgla w paliwo to dwie polskie wundertechnologie, które nie tylko mają rozwiązać bieżące problemy, ale i zamienić nasz kraj w Kuwejt. To już nawet nie rewolucja technologiczna – to po prostu cud.

O autorze:

Proszę się nie obawiać, mimo tytułu nie zamierzam konkurować z Francisem Fukuyamą ani żadnymi innymi piewcami końców historii, kapitalizmu, nauki etc. "Koniec żywności" ("The End of Food") to tytuł książki Paula Robertsa - popularnego i zarazem przejmującego raportu o tym, jak człowiek zbudował niezwykle złożony system wytwarzania substancji dla niego najważniejszych, konstruując go tak, że zamienił się w tykającą coraz natarczywiej bombę zegarową. Roberts doskonale ujawnia absurdy przemysłowej organizacji rolnictwa i przetwórstwa. Po pierwsze, system taki przez to, że nie uwzględnia kosztów zewnętrznych, prowadzi do ewidentnego marnotrawstwa. Jaki sens ma bowiem wożenie ziemniaków z północy Europy na południe Włoch, by je tam umyć i obrać na chipsy i frytki, które będą konsumowane na północy? Szwajcarzy kopią nowy tunel pod Przełęczą Godarda (inwestycja warta 30 mld franków) m.in. po to, by obsługiwać ruch ziemniaczanych transportów. Formalnie, z rynkowego punktu widzenia, skoro taka operacja się opłaca, to wszystko jest w porządku. Gdyby jednak wliczyć koszty zewnętrzne, związane choćby ze skutkami ekologicznymi takich przewozów, sprawa nie byłaby już tak jasna. Problem drugi, na który zwraca uwagę Roberts, to zagrożenie bezpieczeństwa produktów żywnościowych na skutek zbytniej koncentracji produkcji. Wypadki śmiertelnych zatruć po spożyciu masła orzechowego w Stanach Zjednoczonych, melanina w produktach nabiałowych z Chin - to tylko kilka przykładów zagrożeń, które nie wynikają jedynie z braku odpowiednich procedur lub tego, że się ich nie przestrzega. System techniczny pozbawiony redundancji jest immanentnie narażony na awarie, a im większa skala złożoności, tym trudniejsze do przewidzenia skutki katastrofy.
Często w dyskusjach o rolnictwie i produkcji żywności zapominamy, że jedzenie niezwykle głęboko związane jest z kulturą, co powoduje, że nie można zaopatrzenia w żywność sprowadzać jedynie do kategorii rynkowych i efektywności ekonomicznej.
System wytwarzania żywności jest niewątpliwie systemem złożonym. Opublikowany wiosną br. na zamówienie Komisji Europejskiej raport "New Challenges For Agricultural Research", będący podsumowaniem projektu foresight dla europejskiego rolnictwa, wymienia listę czynników kluczowych, jakie mają i będą miały wpływ na rozwój tego systemu: czynniki ekonomiczne, ekologiczne, klimatyczne, demograficzne, społeczne, kulturowe (zmiana stylów życia i konsumpcji), hydrogeologiczne, technologiczne. Sama lista nie wydaje się zbyt odkrywcza, choć nawet taka prosta enumeracja pokazuje, jak często w dyskusjach o rolnictwie i produkcji żywności zapominamy, że jedzenie niezwykle głęboko związane jest z kulturą, co powoduje, iż nie można zaopatrzenia w żywność sprowadzać jedynie do kategorii rynkowych i efektywności ekonomicznej, jak to ma miejsce podczas negocjacji na temat liberalizacji międzynarodowego handlu produktami spożywczymi. A przecież już w XVIII wieku Jean Anthelme Brillat-Savarin pisał w "Fizjologii smaku": "Losy narodów zależą od sposobu, w jaki się odżywiają"i.   Apetyt rośnie, zagrożeń przybywa Sprawa jeszcze bardziej zaczyna się komplikować, gdy weźmiemy pod uwagę wzajemne oddziaływania pomiędzy czynnikami. Wiemy na przykład, że liczba ludności na Ziemi systematycznie będzie rosnąć, z nadzieją, że ustabilizuje się na poziomie około 9 mld w roku 2050. Czy więc wystarczy liniowo zwiększać produkcję żywności, by zaspokoić dodatkowy popyt? Nie wystarczy, bo równolegle zmieniają się apetyty bogacących się społeczeństw krajów rozwijających się. Chińczycy nie dość, że jedzą więcej, to także modyfikują swoją dietę, zwiększając spożycie nabiału i mięsa. W rezultacie zależność między demografią, tendencjami społecznymi i popytem na żywność staje się silnie nieliniowa. Kilogram białka roślinnego i kilogram białka z wołowiny mają podobną wartość odżywczo-energetyczną, zasadniczo różny jest jednak pełny koszt wyprodukowania jednej i drugiej formy białka, a to ze względu na powierzchnię potrzebnej ziemi uprawnej, ilość wody i skalę efektów ubocznych w postaci emisji dwutlenku węgla i metanu. Już bardzo złożony obraz komplikuje się jeszcze bardziej, gdy dodać wyzwania ekologiczno-klimatyczne dla globalnego rolnictwa. Najnowszy, opublikowany we wrześniu br. przez International Food Policy Research Institute (IFPRI) raport "Climate Change. Impact on Agriculture and Costs of Adaptation" pokazuje dramatycznie skalę wyzwania. Analitycy IFPRI zastosowali dwa różne modele matematyczne opisujące dynamikę zmian klimatycznych i wzrostu średniej temperatury oraz zmian hydrologicznych. Niestety, każdy model przewiduje, że w perspektywie 2050 r. (jeśli nie wcześniej - niektóre analizy mówią, że już w 2020 r.) nastąpi załamanie produkcji żywności w regionach największego przyrostu demograficznego: w Azji Południowo-Wschodniej, na Bliskim Wschodzie, w Indiach i Afryce. Produkcja pszenicy w Indiach może zmaleć nawet o połowę, zmniejszy się produkcja ryżu. Jeśli analizować tę sytuację wyłącznie z ekonomicznego punktu widzenia, to widać wyraźnie, że zwiększy się uzależnienie żywnościowe krajów rozwijających się od rozwiniętych. Czy więc dla polskiego rolnictwa nadchodzą złote czasy? Rosnący globalny popyt na żywność na pewno oznacza rozwojową szansę. Tym bardziej że nasi rolnicy skorzystają najprawdopodobniej na zmianie klimatycznej: efekty pozytywne, jak choćby wydłużony okres wegetacyjny, powinny przeważyć nad efektami niekorzystnymi, jak anomalie pogodowe. Wielką niewiadomą jest przyszła sytuacja hydrologiczna, bo choć niektóre prognozy wskazują, że wzrosną łączne dostawy wody, to jednak najprawdopodobniej wzrost będzie dotyczył opadów zimowych, poza okresem wegetacyjnym. Jednocześnie już od połowy lat 90. ub. wieku zwiększa się częstotliwość występowania suszy. Wcześniej susze zdarzały się średnio raz na pięć lat, teraz praktycznie dzieje się tak co drugi rok. Jak widać, aura niepewności otacza zarówno globalne perspektywy rozwoju rolnictwa, jak i sytuację w Polsce. Warto przy tym dodać jeszcze jeden element niepewności, związany ze zmianami klimatyczno-ekologicznymi: rolnictwo będzie nie tylko ich potencjalną ofiarą, lecz jest także istotną ich przyczyną. Światowe rolnictwo odpowiedzialne jest bezpośrednio za 14 proc. emisji dwutlenku węgla. Można się więc spodziewać, że jeśli w procesie międzynarodowych negocjacji zostaną podjęte zobowiązania dotyczące redukcji gazów cieplarnianych, rolnictwo także stanie się obszarem dodatkowych antyemisyjnych regulacji.   Trudna adaptacja Jak zredukować tę oszałamiającą złożoność problematyki rozwoju rolnictwa? Główne hasła pojawiające się podczas poszukiwań odpowiedzi to adaptacja oraz nakłady na badania i rozwój. Adaptacja polega na wbudowaniu w system produkcji żywności mechanizmów umożliwiających szybką reakcję na nieoczekiwane zmiany. Skoro możemy spodziewać się, że w Polsce będą maleć uprawy ziemniaków, wzrośnie plenność buraka cukrowego i kukurydzy, pojawi się szansa na uprawę kukurydzy na terenie całego kraju, a zasięg hodowli winogron przesunie się na północ, to już w tej chwili należałoby przedefiniować programy działania ośrodków doradztwa rolniczego. W najbliższych latach będą one musiały się mierzyć z licznymi nowymi problemami zgłaszanymi przez rolników, dotyczącymi zarówno upraw, jak i nowych problemów wynikających z pojawiania się choćby nowych szkodników. Bo co po możliwościach hodowli kukurydzy, skoro już w tej chwili w niektórych rejonach Polski nawet 100 proc. upraw atakuje Omacnica prosowianka, wcześniej nieaktywna w naszej strefie klimatycznej? Zadania systemu dystrybucji wiedzy pomagającej diagnozować nowe problemy i wskazywać rozwiązania wybiegają dziś jednak, jak wskazują autorzy unijnego raportu "New Challenges For Agricultural Research", poza możliwości tradycyjnego modelu systemu współpracy sektora rolnictwa i przemysłu z sektorem akademickim i badawczo-rozwojowym. W modelu tym wydawało się jasne, że optymalną odpowiedzią na rosnący popyt na żywność jest zwiększanie wydajności produkcji przez wprowadzanie nowych technologii upraw, z organizmami optymalizowanymi genetycznie włącznie. Gdy jednak jako parametr optymalizacji wprowadzi się obok wydajności parametr trwałości (sustainability), czyli utrzymania zdolności produkcyjnej przez długi okres, to okaże się, że odpowiedź nie jest jednoznaczna. Wystarczy przykład rolnictwa ekologicznego. W krajach rozwiniętych daje ono blisko o połowę plonów z hektara mniej niż rolnictwo konwencjonalne. Sprzyja ono jednak rozwojowi próchnicy w glebie, która jest doskonałym absorbentem dwutlenku węgla, a także pozwala na lepsze gospodarowanie wodą. Nie wywiera ono negatywnego wpływu na bioróżnorodność, a ponieważ jest bardziej pracochłonne, daje zatrudnienie większej liczbie osób. Bilans porównujący obie formy gospodarowania nie jest jednoznaczny, zależy od lokalnego kontekstu. Tym bardziej że wbrew pojawiającym się często argumentom zwolenników rolnictwa przemysłowego, alternatywne formy wcale nie są mniej nowoczesne. Nowe cechy organizmów można uzyskiwać dziś zarówno za pomocą tradycyjnej selekcji (wspomaganej jednak najnowszą wiedzą genetyczną), jak i modyfikacji genetycznych. Z kolei organizmy modyfikowane genetycznie nie muszą być wytwarzane jedynie w modelu kapitałowym, bo pojawiają się już formy współpracy zespołów biologów działających w logice open source, jaką pierwsi zastosowali niezależni producenci oprogramowania komputerowego. Dalej, źródłem wiedzy budującej potencjał adaptacyjny są już nie tylko laboratoria naukowe uczelni i korporacji, lecz także lokalne wspólnoty pielęgnujące rzadkie, a często cenne kompetencje ekologiczne.
Dyskutując o polskim rolnictwie i jego przyszłości, warto uwzględnić złożoność kontekstu oraz przyjąć do wiadomości, że nie ma jednej prostej recepty na jego rozwój. Odpowiedź na pytanie o przyszłość polskiego rolnictwa musi powstać w debacie, której uczestnikiem będzie całe społeczeństwo, nie tylko rolnicy, koncerny biotechnologiczne i przemysł spożywczy.
Dyskutując o polskim rolnictwie i jego przyszłości, warto uwzględnić złożoność kontekstu oraz przyjąć do wiadomości, że nie ma jednej prostej recepty na jego rozwój. Jeszcze dwa lata temu ceny zboża szybowały niemal w stratosferze, dziś taniej palić w piecu zbożem niż węglem. Taniej, bo rynkowa cena zboża uwzględnia tylko czynnik zmniejszonego przez kryzys popytu, ślepa jest jednak na koszty ekologiczne, za które przyjdzie zapłacić za czas jakiś. Musimy uwolnić się od takiej krótkowzroczności i zacząć poważną debatę nad rolnictwem, uwzględniając wszystkie opisane czynniki złożoności. Czy polską szansą jest przystąpienie do wyścigu w konkurencji upraw wielkoprzemysłowych? Czy może też lepiej unowocześnić "zacofanie", analizując, czy ekstensywność, niewielki stopień koncentracji i chemizacji nie są prorozwojowymi atutami o rosnącej z czasem wartości?ii Nie ma jednoznacznych odpowiedzi, odpowiedź jednak jest potrzebna. Najgorsza jest sytuacja, w której nie podejmując decyzji, pozwala się na działanie szarych stref. Odpowiedź musi powstać w debacie, której uczestnikiem będzie całe społeczeństwo, nie tylko rolnicy, koncerny biotechnologiczne i przemysł spożywczy. Od tych decyzji zależy nie tylko, co będziemy jedli za 10-20 lat, lecz także to, jak będzie wyglądał polski krajobraz, jaka będzie struktura, jakie będą potrzebne inwestycje infrastrukturalne. Parafrazując maksymę Brillata-Savarina, nasz los zależy od sposobu, w jaki zdecydujemy się odżywiać.

O autorze:

Rozmowę prowadzi Leszek Szmidtke – dziennikarz „Pomorskiego Przeglądu Gospodarczego” oraz Radia Gdańsk Leszek Szmidtke: Czy wiemy dokąd zmierzają polskie uczelnie? Edwin Bendyk: Cele są wyznaczone. Pierwszym, bardzo ogólnym, jest poprawienie konkurencyjności polskiego szkolnictwa wyższego. W części naukowej chodzi o poprawienie jakości w sferze badań podstawowych oraz lepsze dopasowanie badań aplikacyjnych do potrzeb gospodarki. Kolejnym celem jest podniesienie jakości oferty dla studentów. Dotyczy to nie tylko Polaków, wśród których niż demograficzny jest coraz bardziej widoczny, ale także przyciągnięcie większej niż do tej pory liczby studentów z zagranicy. W każdym z wymienionych obszarów wchodzimy w konkurencję globalną, więc nasze uczelnie zostaną zbadane i umieszczone w rankingach. L.S.: Polskie uczelnie od kilku lat są obecne w światowych rankingach, ale dwie czy trzy jednostki w czwartej setce nie są powodem do chwały. Tylko czy awans do trzeciej lub nawet drugiej setki ma jakiekolwiek znaczenie? No i po co nam zagraniczni studenci, poza tym, że zwiększą oni wpływy do budżetów uczelni? E.B.: Zwiększenie konkurencyjności ma między innymi służyć zatrzymaniu naszych studentów. O nich starają się też zagraniczne uczelnie i coraz więcej osób korzysta z takich ofert. System boloński, mimo wielu wad, otworzył Europę przed naszymi studentami. Poza tym, wyjeżdżają zwykle najlepsi i często nie wracają do kraju. Z zagranicznymi studentami jest podobnie – zazwyczaj przyjeżdżają osoby ponadprzeciętne. One też mogą się później osiedlić w Polsce. Właśnie dlatego warto zwiększać liczbę studentów z innych krajów. L.S.: Rankingi są odbiciem amerykańskiego spojrzenia na ideę uniwersytetu. Czy w Europie, a szczególnie w Polsce, oddają one rzeczywistą wartość uczelni? E.B.: Rzeczywiście jest wiele różnic. Choćby wielkość: Harvard ma koło 20 tys. studentów, a Uniwersytet Warszawski ma ponad 50 tys. Na branych pod uwagę w światowych rankingach polskich uczelniach: Uniwersytecie Jagielońskim i Warszawskim są bardzo dobre wydziały i kierunki, ale „nikną” one na tle innych i całość wypada dość blado. Oczywiście, młody człowiek, decydując się na studia, wybiera konkretny kierunek i wiedząc, że na UW jest znakomita informatyka, to właśnie tam będzie starał się dostać. Rankingi nie są jedynym kryterium, ale nie można się na nie obrażać i ich lekceważyć. Odpowiadając na wcześniejsze pytanie – firma, która ma cały świat w swoim zasięgu, do szerszej współpracy wybierze raczej uczelnię z drugiej setki globalnego rankingu, niż z czwartej czy piątej.
W Polsce zostawiliśmy edukację samą sobie i decyzję oddaliśmy rynkowi. Jednak gdyby znaczenie miało tylko rynkowe podejście i liczyłby się tylko zysk, to np. po co na Harvardzie olbrzymia biblioteka? Po co cała misja szerzenia kultury, wiedzy, która ma przecież olbrzymie znaczenie? Jednym z fundamentów jest etos pracownika i etos całej uczelni. Tam nie ma ministerstwa szkolnictwa wyższego, a szkoły wyższe same nadają tytuły profesorskie swoim pracownikom.
L.S.: Czy relacja uczelni wyższych z gospodarką jest najistotniejszym elementem całego problemu? E.B.: Uważam, że ciągle nie potrafimy odpowiedzieć na pytanie, po co w takim kraju jak Polska są uniwersytety? Chyba boimy się tego pytania. Edukacja była i jest nacechowana ideologicznie. Od samego początku, w sporej części krajów, system edukacyjny miał służyć wyrównywaniu szans. W Skandynawii nadal w ten sposób traktuje się edukację i na przykład w Finlandii ma ona prawie wyłącznie charakter publiczny, a wszystkie uniwersytety są państwowe. W innych krajach jest ona z kolei bardziej rynkowa. W Polsce, bojąc się rzeczowej dyskusji, zostawiliśmy edukację samej sobie i decyzję oddaliśmy rynkowi. Jednak brak świadomego wyboru ma swoje konsekwencje i zaczynamy zauważać, że jest to ślepa uliczka. L.S.: Pozostawienie tego pytania bez odpowiedzi i czekanie na działanie ręki rynku powoduje, że szkolnictwo wyższe pełni funkcję usługową wobec gospodarki. Czy na pewno o to nam chodzi? E.B.: Amerykańscy profesorowie mówią, że świadczą usługi studentom i to student decyduje o tym, co wybiera. Oczywiście, ponosi też konsekwencje swoich wyborów. Płacąc 200 tys. dolarów za naukę na Harvardzie wie, że otrzyma najlepsze możliwe wykształcenie. Później zazwyczaj ta inwestycja przynosi oczekiwane zyski. Jednak gdyby podejście tej uczelni miało znaczenie tylko rynkowe i liczyłby się tylko zysk, to po co na Harvardzie olbrzymia biblioteka? Po co cała misja szerzenia kultury, wiedzy, która ma przecież olbrzymie znaczenie? Jednym z fundamentów jest etos pracownika i etos całej uczelni. Tam nie ma ministerstwa szkolnictwa wyższego, a szkoły wyższe same nadają tytuły profesorskie swoim pracownikom. Czy taki system można przenieść do Polski?
Próby wprowadzania nowych regulacji, mających ograniczyć występujące patologie, równocześnie nakładają na system szkolnictwa nowe „pęta”: sprawozdawczości, opomiarowania, transparentności, na wzór tego, co funkcjonuje w firmach. Tyle, że w przedsiębiorstwach zaczyna się od tego odchodzić, gdyż taki wzorzec działania ogranicza kreatywność.
L.S.: Póki co nadal bazujemy na niemieckim, humboldtowskim systemie akademickim… E.B.: Obecnie próbujemy go rozmontować. Prywatna część szkolnictwa wyższego ma charakter rynkowy i bazuje na opłatach za studiowanie. Tyle tylko, że pieniądze wędrujące za studentem i brak rynkowej weryfikacji dyplomów przynoszą dość dziwny efekt. Z drugiej strony państwo (i nie jesteśmy w tym odosobnieni) stworzyło coś na wzór postfordowskich przedsiębiorstw, w których wszystko trzeba sparametryzować. W USA liczy się wartość, etos konkretnego profesora, a w Europie wskaźniki. Diagnoza nienajlepszego stanu europejskich uniwersytetów jest znana, ale mimo to brakuje odpowiedzi na pytanie, co z tym zrobić. Próby wprowadzania nowych regulacji, mających ograniczyć występujące patologie, równocześnie nakładają na system szkolnictwa nowe „pęta”: sprawozdawczości, opomiarowania, transparentności, na wzór tego, co funkcjonuje w firmach. Tyle, że w przedsiębiorstwach zaczyna się od tego odchodzić, gdyż taki wzorzec działania ogranicza kreatywność. Moim zdaniem mamy do czynienia z kryzysem legitymizacji. W przeszłości uniwersytety były częścią pewnego ładu społecznego. Z jednej strony studia wiązały się ze zdobywaniem wiedzy, ale uczelnie były też pewnym punktem odniesienia, miejscem, w którym można było np. uzyskać ekspertyzę na dany temat. Niestety, obecnie szkoły wyższe tracą pozycję depozytariuszy wiedzy opartej na dążeniu do prawdy. L.S.: Do tego należy dołożyć praktyczny zanik granic państwowych, wpływ internetu i coraz dynamiczniej rozwijającą się wirtualną gospodarkę. E.B.: Internet potęguje transparentność, gdyż student z Polski bez problemu może porównać ofertę swojej uczelni z tym, co proponują na przykład amerykańskie uniwersytety. Z drugiej strony sieć zmieniła sposoby wytwarzania wiedzy, strukturę autorytetów. Istniejące eksperymenty open science są otwarte dla ludzi nie mających stopni naukowych. Linux jest kolejnym przykładem środowiska, gdzie nikt nie pyta o dyplomy uczelni. Cała kultura hakerska jest kontestacją panującego systemu zdobywania wykształcenia. Mamy już owoce tego procesu, np. Encyklopedia Britanica przegrała walkę z Wikipedią i upadła. Uniwersytety muszą się zmierzyć z nową przestrzenią powstawania i przekazywania wiedzy. Muszą zredefiniować swoje istnienie i na szczęście próbują to robić. Kilka lat temu Massachusetts Institute of Technology (MIT) zainicjował OpenCourseWare (OCW). Pojedynczy profesorowie dochodzą do wniosku, że mogą być jednoosobowymi szkołami lub nawet uniwersytetami. Dobrym przykładem jest Salman Khan, tworząc Akademię Khana czy też Sebastian Thrun – twórca samochodu Google, pracujący wcześniej w Uniwersytecie Stanforda, a obecne oferujący kursy w internecie. Na te zajęcia zapisało się ponad 130 tysięcy chętnych z całego świata. Ruch OCW przybiera na sile i uniwersytety jakoś muszą się w tych okolicznościach odnaleźć. L.S.: W USA dyplom miał i nadal ma wartość rynkową. Jak w takim razie rynek reaguje na takie przewartościowanie? E.B.: Dyplom nadal ma znaczenie w Stanach Zjednoczonych. Jednak maleje zwrot inwestycji edukacyjnych. Zrobiono badania zależności pensji oraz wykształcenia od lat 60. do 2010 roku. Początkowo relacje między różnymi poziomami wykształcenia a zarobkami były blisko siebie. Obecnie jedynie doktorat zapewnia sukces finansowy. W USA mówi się o bańce kredytu edukacyjnego wartości biliona dolarów. Coraz trudniej spłacić pożyczki zaciągnięte na finansowanie studiów. W Polsce tego problemu nie ma, za to są inne. List prezesa PZU Andrzeja Klesyka jest świadectwem frustracji pracodawców. Rektor Uniwersytetu Warszawskiego odpowiada, że będąc największym pracodawcą w Warszawie sam doświadcza tych trudności, bo też zatrudnia ludzi. We wszystkich polskich metropoliach szkoły wyższe są największymi zakładami pracy. Mają olbrzymi, choć pośredni, wpływ na lokalną gospodarkę. Tak długo jak mieliśmy do czynienia z demograficzną nadwyżką, szkolnictwo wyższe funkcjonowało dobrze. Teraz to środowisko staje przed poważnym wyzwaniem i szuka sposobów uniknięcia perturbacji. Stąd min. konsolidacje uczelni, które i tak nie uchronią większości prywatnych uczelni przed upadkiem. Publiczne szkoły przetrwają, tym bardziej, że mogą liczyć na środki unijne. L.S.: Nawet jeżeli z 460 istniejących uczelni zostanie połowa, to chyba nie będzie miało to tak dużego znaczenia, jak ucieczka najzdolniejszych studentów na zagraniczne uczelnie i bezpłatny dostęp do najlepszych światowych uniwersytetów jak Harvard, Stanford czy MIT, które utworzyły i cały czas poszerzają dostęp do specjalnych kursów online. Z czym zostaniemy? E.B.: Trudno odpowiedzieć na to pytanie, bo nieliczne uczelnie opracowały długoterminowe strategie, w których autorzy zadali sobie trud odpowiedzenia na pytania dotyczące przyszłości. Jednym z rozwiązań jest powrót do sytuacji sprzed lat, tzn. pięć razy mniejszą liczbę studentów kształciła kadra niewiele mniejsza niż obecnie. Kadra taka mogłaby sobie pozwolić na robienie dobrych badań i kształcenie 400–500 tys. studentów. Wtedy zyskalibyśmy lepszą jakość pracy dydaktycznej i badawczej. Jednak powrót do modelu elitarnego jest mało prawdopodobny. L.S.: Profesor Kleiber uważa, że jednym z najważniejszych osiągnięć polskiej transformacji było właśnie podniesienie udziału studentów w grupie młodych Polaków. Co więcej, powinniśmy, przy spełnieniu pewnych założeń, zwiększać ten odsetek nawet do 70–80%. Równocześnie należy, jego zdaniem, znacznie ograniczyć liczbę uczelni badawczych. E.B. W większości krajów nieliczne uczelnie prowadzą działalność badawczą. Dopiero silny ośrodek akademicki może podołać poważnej pracy badawczej.
Uniwersytet musi być miejscem sporu, dyskusji, ale opartej o rozum, logikę i szacunek dla innych poglądów. Nie może uczyć konkretnego zawodu, bo coś takiego nie ma sensu. Zmiany zachodzą tak szybko, że nie jesteśmy w stanie przewidzieć zawodów przyszłości.
L.S.: Czy uniwersytet nadal pozostanie miejscem, w którego murach spotyka się z profesorami, innymi studentami? E.B.: Przekonanie, że wszystko uda się przenieść do przestrzeni wirtualnej odchodzi. Życie akademickie, przepływy do gospodarki toczą się w konkretnym miejscu. Fenomen Krzemowej Doliny ma miejsce w określonej części Kalifornii, wokół Uniwersytetu Stanforda. Uczelnia jest punktem, który koncentruje energię w swoich murach. Natomiast każdego dnia trzeba udowadniać kolejnymi osiągnięciami swoją wartość. Przeszłość, tradycja mają znaczenie, ale życie pędzi do przodu i uczelnie muszą przekonywać coraz to nowe roczniki, że właśnie tam warto studiować. Dlatego uniwersytet musi też być miejscem sporu, dyskusji, ale opartej o rozum, logikę i szacunek dla innych poglądów. Nie może uczyć konkretnego zawodu, bo coś takiego nie ma sensu. Zmiany zachodzą tak szybko, że nie jesteśmy w stanie przewidzieć zawodów przyszłości. L.S.: W dyskusji o przyszłości polskiego szkolnictwa nie porusza się tematu postaw, etyki. E.B.: Problem nie dotyczy tylko uczelni, ale całego systemu edukacji, który się wyrzekł wychowania. Wracamy do punktu wyjścia, czyli do wartości i braku zgody na pewien wspólny kanon w edukacji formalnej. Natomiast uczelnia powinna być miejscem szacunku dla prawdy, rozumu, uczciwości.
Na początku lat 90. chcieliśmy się ubierać w markowe rzeczy, ale nie było nas na nie stać, więc na bazarze kupowaliśmy podróbki. Z edukacją jest podobnie: wiemy, że jest ona ważna, ale ciągle nie stać nas ani mentalnie, ani finansowo na wysoką jakość.
L.S.: Czy kadra, która obecnie pracuje na uczelniach, może sprostać takiemu wyzwaniu? E.B.: Wydaje mi się, że tak. Jednak my jako społeczeństwo musimy tego wymagać. Należy na nich wywierać silną presję, żeby uczelnie były też miejscem kształtowania postaw. Niestety, nasze aspiracje jeszcze nie sięgają tak daleko. Kiedyś napisałem, że na początku lat 90. chcieliśmy się ubierać w markowe rzeczy, ale nie było nas na nie stać, więc na bazarze kupowaliśmy podróbki. Z edukacją jest podobnie: wiemy, że jest ona ważna, ale ciągle nie stać nas ani mentalnie, ani finansowo na wysoką jakość.

Skip to content