Kategorie
Pomorski Przegląd Gospodarczy

Sztuczna inteligencja – wyścig o naszą wolność

Pobierz PDF

Rozmowę prowadzi Marcin Wandałowski, redaktor prowadzący Pomorskiego Przeglądu Gospodarczego.

VoiceLab jest jednym z pomorskich pionierów w zakresie rozwijania projektów w obszarze sztucznej inteligencji. Czym konkretnie się zajmujecie?

Firma powstała około 10 lat temu i od początku działalności zajmuje się przetwarzaniem mowy. Stworzyliśmy system, który przy wykorzystaniu sztucznej inteligencji zamienia dźwięk na tekst. Nie chodzi tu jednak wyłącznie o zamianę pliku audio na ciąg znaków tekstowych. Nasze rozwiązanie zostało zaprojektowane w taki sposób, że rozumie sens wypowiedzi – co dana osoba miała na myśli, czy wypowiedź miała charakter pozytywny czy negatywny itd.

W efekcie uzyskujemy rezultat zbliżony do tego, jak dane słowa zrozumiałby i zinterpretował człowiek. Oczywiście – maszyna nie ma ludzkiego mózgu i jej „rozumienie” też jest inne. Wszystko bazuje na nauczeniu systemu – „nakarmieniu” go bardzo dużą ilością danych, dzięki którym sam potrafi wysnuwać własne wnioski.

Kluczowym elementem koniecznym do rozwijania projektów AI jest więc dostępność danych?

Tak – sztuczna inteligencja, a właściwie część tego obszaru zwana uczeniem maszynowym, faktycznie opiera się na „uczeniu” systemu za pomocą bardzo dużych ilości danych. Dajemy mu pewne dane wyjściowe – w naszym wypadku: surowe pliki audio, opisane przez transkrypcję, gdzie każdy dźwięk ma przypisaną odpowiadającą mu literę. Mówimy komputerowi: „jeśli słyszysz taki dźwięk, to on ma taką reprezentację, a tamten ma inną”. Żeby to elastycznie działało, potrzebnych jest bardzo wiele przykładów. My mamy do dyspozycji ponad 10 tys. godzin nagrań, a w wypadku Google mogą to być setki tysięcy, a nawet miliony godzin.

Często jednak – przynajmniej w Polsce – niewystarczającą ilość danych wskazuje się jako jedną z barier rozwoju AI…

Wydaje mi się, że w tym temacie panuje pewne ogólne niezrozumienie – wiele osób mówi przecież, że mamy dziś w sieci bardzo dużo darmowych danych z otwartych zbiorów, które moglibyśmy wykorzystać do uczenia systemów. Danych faktycznie jest sporo, natomiast problem w tym, że większość z nich nie jest użytecznych: nie są to dane uczące – czyli odpowiednio etykietowane, opisane. Nawiązując do naszej branży – brak jest, chociażby, otwartych zbiorów z plikami audio i ich transkrypcją. Takie zbiory można oczywiście zakupić – głównie w języku angielskim. Ogromną barierą jest jednak cena. Chcąc kupić godzinną, przetranskrybowaną rozmowę muszę się liczyć z wydatkiem rzędu 250 dolarów – precyzyjna transkrypcja takiej rozmowy zajmuje bowiem 5‑7 godzin pracy człowieka. W dodatku za ceną niekoniecznie idzie jakość – często są to dane „symulowane”, przedstawiające rozmowę opartą na gotowym skrypcie, a nie „naturalną”. System nauczy się z nich mniej – najlepiej, gdy plik audio dotyczy normalnej, autentycznej interakcji międzyludzkiej, a nie dwóch osób, które czytają tekst z kartek.

Wiele osób mówi, że mamy dziś w sieci bardzo dużo darmowych danych z otwartych zbiorów, które moglibyśmy wykorzystać do uczenia systemów. Danych faktycznie jest sporo, natomiast sęk w tym, że większość z nich nie jest użytecznych: nie są to dane uczące – czyli odpowiednio etykietowane, opisane.

To jednak niejedyne bariery. Chcąc dobrze zaprojektować system, potrzebujemy reprezentatywnej próbki głosów ludzkich, rozłożonych według płci, wieku itd. Gdyby to nie było konieczne, moglibyśmy przecież nagrać i przetranskrybować dziesiątki godzin audycji radiowych czy telewizyjnych – występują w nich często te same głosy: prezenterów, ekspertów, redaktorów prowadzących. Jest to jednak zbyt mała różnorodność.

Warto w tym wszystkim mieć jednak na uwadze, że dane audio są chyba dość szczególnym, „wrażliwym” typem danych przez sam fakt tego, że nie można ot, tak nagrywać sobie prywatnych rozmów, a następnie transkrybować ich i przekazywać komputerowi. Systemy AI mogą się też przecież uczyć z innego typu danych, np. tekstowych czy obrazowych. Tu również pojawia się problem?

Niestety tak. A przecież wiele danych jest na wyciągnięcie ręki. Moim zdaniem najbardziej potrzebne, a zarazem relatywnie proste w zdobyciu są dane medyczne – np. zdjęcia z tomografu czy rezonansu magnetycznego. Większość państw w Europie zbiera dziś takie właśnie, zanonimizowane dane, które są odpowiednio opisane: „tu jest serce, tu są płuca, tu jest wątroba. Na tym zdjęciu jest zdrowy organ, a na tym organ zaatakowany przez nowotwór”. Kiedy komputer otrzyma kilkanaście tysięcy takich zdjęć, nauczy się samemu wskazywać, czy pacjent jest zdrowy, czy chory. Nie chodzi o to, by technologia zastąpiła radiologów, lecz by była dla nich wsparciem, szczególnie w sytuacji nagłej, dynamicznej, gdy np. do szpitala jest przywożony pacjent powypadkowy z licznymi obrażeniami, który potrzebuje szybkiej pomocy medycznej. Takie rozwiązanie znacznie zmniejszyłoby ryzyko pominięcia przez lekarzy jakiegoś złamania czy innego typu urazu.

Rozumiem, że jest to jeden z przykładów pokazujący generalny problem ze zbieraniem i udostępnianiem danych. Jest on tym silniejszy, gdyż każdy projekt AI wymaga tak naprawdę określonego, dedykowanego mu zbioru informacji. Czy Pana zdaniem przedsiębiorstwa powinny uzyskiwać wsparcie w ich gromadzeniu?

VoiceLab jest dobrym przykładem firmy gromadzącej i kupującej wiele danych. Bierzemy udział w różnego typu grantach i projektach, udostępniających nam finansowanie na ten cel. Niemniej jednak uważam, że nie jest to dobry kierunek – jak wspominałem, dane są bardzo drogie. Moim zdaniem potrzebne byłyby swego rodzaju publiczne banki danych, za którymi stałyby organizacje niekomercyjne. W Stanach Zjednoczonych taką funkcję pełnią uczelnie wyższe. Pozostając w warunkach rynkowych, będziemy skazani na zaporowe ceny danych, co będzie nadal stanowiło wysoki próg wejścia do AI.

Bardziej jednak niż tworzenie instytucji przydałaby nam się ogólna zmiana filozofii, mindsetu, świadomości w zakresie zdobywania danych uczących. Najlepszy przykład? Na wielu stronach internetowych administracji państwowej zainstalowane są boty, sprawdzające, czy użytkownik jest „realny”, czy nie. Zna to każdy z nas – to obrazki, na których jesteśmy proszeni o zaznaczenie roweru, sygnalizacji świetlnej czy przejścia dla pieszych. Od strony systemu: są to dokładnie dane uczące, za pomocą których komputer jest uczony lokalizowania danego obiektu na obrazku. Zmierzam do tego, że – przynajmniej na stronach państwowych – zamiast korzystać z usług firmy Google, powinniśmy używać własnego narzędzia pozwalającego na zbieranie danych i budować swoje własne „magazyny danych”. Podobnego typu inspiracji do zmian mógłbym oczywiście przytoczyć wiele więcej.

Przydałaby nam się dziś w Polsce ogólna zmiana filozofii, mindsetu, świadomości w zakresie zdobywania danych uczących dla potrzeb AI.

Wróćmy do działalności VoiceLab. Jakie produkty stworzone na bazie systemu rozpoznania mowy oferujecie swoim klientom?

Zaprojektowaliśmy szereg aplikacji skierowanych głównie do biznesu. Najważniejsze z nich dotyczą wsparcia interakcji głosowej konsultantów firmy z klientami – czy sprzedawcy nie mówią za dużo, za szybko, co powinni powiedzieć w danym momencie itd. – oraz automatyzacji pewnych stałych procesów. Dla przykładu: do niektórych firm wielu klientów dzwoni w tej samej sprawie i przebieg tych rozmów jest mniej więcej taki sam. Jeśli struktura rozmowy jest powtarzalna, możemy ją zautomatyzować przy wykorzystaniu voicebota lub chatbota. Jesteśmy jedną z pierwszych firm w Polsce, która oferuje klientom wykorzystanie obydwu tych technologii. Naszym rozwiązaniem jest też m.in. automatyczny scoring rozmów telefonicznych – system VoiceLab zastępuje człowieka w ocenie, w jaki sposób sprzedawca rozmawiał z klientem, o co się pytał, czy uzyskał zgody marketingowe, jaka była ogólna atmosfera rozmowy. Dla naszych klientów to potężna oszczędność czasu i pieniędzy.

Transkrybujemy też wszelkie medialne programy informacyjne, także archiwalne. Mamy nagrania radiowe z ostatnich lat, które dzięki naszemu rozwiązaniu możemy przetworzyć i odszukać w nich kluczowe słowa: nazwiska, tematy, miejsca. Opracowaliśmy także tzw. biometrię głosową, dzięki której system jest w stanie wyszukać w archiwum nagrań wypowiedzi danej osoby, odnajdując ją po barwie głosu, a nie po nazwisku.

Jakiego typu przedsiębiorstwa korzystają z Waszych usług?

W kontekście analizy rozmów mamy wielu klientów głównie z branży ubezpieczeniowej oraz bankowej. Wykorzystując możliwości automatycznej transkrypcji audio, bierzemy też udział w dużym projekcie transkrypcji rozpraw sądowych. Mamy klientów zarówno w Polsce, jak i za granicą – w zasadzie w ciągu kilku miesięcy jesteśmy wdrożyć w nasze rozwiązanie każdy język na świecie. Wszystko w zależności od dostępności danych. W tym momencie system wykorzystuje język polski, angielski, niemiecki, rosyjski i włoski.

W jaki sposób rywalizujecie z konkurencją? Przecież podobnego typu rozwiązania, pozwalające przetwarzać mowę na tekst, oferuje nawet Google…

Staramy się wyszukiwać nisze – tak technologiczne, jak również rynkowe. Odnośnie tych pierwszych – Google wyspecjalizowało się w rozwiązaniu działającym w częstotliwości 16 kHz, czyli w jakości np. dyktowania tekstu na telefon czy obsługiwania inteligentnych asystentów głosowych typu Siri. My natomiast skupiamy się na jakości 8 kHz, odpowiadającej rozmowie telefonicznej, gdzie rozmówca słyszy przez słuchawkę skompresowany głos drugiej osoby.

Znacznie ważniejsze od nisz technologicznych są dla nas nisze rynkowe, związane np. z językami nieopłacalnymi dla gigantów – a do takich należą np. polski czy włoski. Naszym atutem jako firmy o nieporównanie mniejszej skali niż globalne koncerny jest też elastyczność – bez problemu dostarczymy dedykowany system pod specyficzne wymagania danego klienta.

Staramy się wyszukiwać nisze – tak technologiczne, jak również rynkowe. Zdecydowanie ważniejsze są dla nas te drugie, związane np. z językami nieopłacalnymi dla gigantów – a do takich należą chociażby polski czy włoski.

VoiceLab jest inicjatorem pierwszego na Pomorzu, a jednego z pierwszych w Polsce Hubu Innowacji Cyfrowych (DIH – Digital Innovation Hub) – dih4.ai. Na czym polega ta inicjatywa?

Koncept DIH jest inicjatywą Ministerstwa Rozwoju, które zaplanowało w 2019 r. stworzenie lokalnych hubów pomagających przejść przedsiębiorstwom przez proces cyfryzacji. Jako dih4.ai stanowimy miejsce, w którym przedsiębiorcy – w szczególności mali i średni – uzyskują wsparcie w zakresie m.in. zrozumienia samej idei cyfryzacji, narzędzi potrzebnych do jej wdrożenia, opracowywania strategii cyfryzacji, poszukiwania odpowiednich dostawców rozwiązań, szkoleń dla pracowników itd. Wszystko to ma na celu, by finalnie przedsiębiorcy byli w stanie wykorzystywać w swojej działalności najnowsze technologie.

Dih4.ai stanowi miejsce, w którym przedsiębiorcy – w szczególności mali i średni – uzyskują wsparcie w zakresie m.in. zrozumienia samej idei cyfryzacji, narzędzi potrzebnych do jej wdrożenia czy opracowywania strategii cyfryzacyjnych. Wszystko to ma na celu, by finalnie byli w stanie wykorzystywać w swojej działalności najnowsze technologie.

W ramach dih4.ai współpracujemy blisko m.in. z Politechniką Gdańską oraz Gdańskim Parkiem Naukowo­‑Technologicznym. Dzięki naszym wspólnym wysiłkom otworzyliśmy w Parku robotyczne centrum prototypowania – Space4Makers. Centrum jest wyposażone m.in. w specjalne komputery z projektorami, urządzenia do pomiaru, drukarki 3D, etc. Umożliwia to zbudowanie od początku do końca prototypu danego urządzenia. To przykład działań, które chcemy realizować. Owszem – organizujemy też szkolenia, doradztwo dla firm czy hackathony, ale zależy nam, by nasze wsparcie miało jak najbardziej praktyczny wymiar. Nie chcemy być ośrodkiem skupiającym się wyłącznie na doradzaniu, lecz być learning factory – miejscem, w którym „na żywym organizmie” pokazujemy przedsiębiorcom, ale też np. domenie publicznej, w jaki sposób automatyzować dany proces.

Nazwa DIH‑u wskazuje na to, że wspieracie firmy także w zakresie AI.

Sztuczna inteligencja jest naszą silną stroną ze względu na kompetencje VoiceLab, jak również środowiska, w jakim funkcjonujemy. Organizujemy meet‑upy dotyczące AI, współpracują z nami osoby wyspecjalizowane w machine learningu. Oprócz kompetencji własnych wiemy więc też gdzie szukać partnerów z zewnątrz. Korzystamy w szczególności z zasobów Politechniki Gdańskiej, z prof. Jackiem Rumińskim na czele.

Obecnie startujemy w naborze na europejskie DIH‑y. Stawka jest duża – wybrane inicjatywy uzyskają 7‑letnie wsparcie o dużo większej skali niż obecnie. Chcemy, by taki DIH był także w Gdańsku, by spływały tu środki na rozwój nowoczesnych technologii, byśmy mogli cały czas animować to środowisko. Jeśli Pomorze chce zaistnieć na technologicznej mapie Europy, musi ściągać tu takie inicjatywy – dają one zarówno finansowanie, jak również wyspecjalizowane miejsca pracy, a także możliwość współpracy z DIH‑ami z innych państw. Na tej bazie może powstać prawdziwy ekosystem, środowisko dla rozwijania i wdrażania najnowocześniejszych technologii w naszym regionie.

No właśnie – jakie są kluczowe elementy konieczne do tego, by Pomorze miało szansę na międzynarodowe zaistnienie, w szczególności w warstwie AI?

O pierwszym z tych elementów już mówiłem – to kwestia dostępu do danych uczących. W tym kontekście postawiłbym zdecydowanie na medycynę, przy wykorzystaniu współpracy z naszymi świetnymi lokalnymi uczelniami – Gdańskim Uniwersytetem Medycznym oraz Politechniką Gdańską. Dostępność tych danych może być nie tylko warunkiem, ale wręcz lokomotywą do pociągnięcia rozwoju branży na Pomorzu.

Drugim elementem, znacznie prostszym do spełnienia, jest dostępność odpowiednio dużej mocy obliczeniowej, czyli de facto komputerów wyposażonych w akceleratory, pozwalające na równoległe przetwarzanie bardzo dużych ilości danych. W ten sposób w praktyce „uczą się” maszyny. W tym momencie polskie uczelnie czy instytuty badawcze mają raczej skromne zasoby. Bez mocy obliczeniowych nie ma jednak rozwoju – na szczęście rozwiązanie tego problemu jest banalne, bo skupia się na konieczności poniesieniu kosztów, które nie są też znowu niebotyczne.

Trzeci i ostatni element, czyli dostępność kapitału intelektualnego, jest już na Pomorzu w zasadzie spełniony. Mamy tu dobre uczelnie, dobrze wykształconych specjalistów, a w dodatku jesteśmy miejscem atrakcyjnym do życia, co jest istotne w kontekście przyciągania tu talentów z zewnątrz. Teraz tylko ten kapitał intelektualny należałoby odpowiednio wykorzystać.

Dlaczego powinno nam tak bardzo zależeć na wzięciu udziału w tym wyścigu?

O sztucznej inteligencji mówi się czasem, że jest „nową elektrycznością”. Tak jak kiedyś świat został odmieniony przez prąd, a następnie przez komputery i internet, tak teraz takim game changerem jest właśnie AI. Nie ma dziedziny życia, której ona nie dotknie, będzie z nią związana cała gama zastosowań oraz rozwiązań.

Obecnie w obszarze AI nie tylko firmy konkurują z firmami – tutaj ścigają się wszyscy, także państwa z państwami. To, że „wszyscy” to robią, samo w sobie jest oczywiście słabym argumentem na to, że my też powinniśmy się zaangażować – wszak obszarów globalnego konkurowania jest dużo. Świetnie byłoby też przecież, gdybyśmy byli potęgą atomową czy militarną – tyle tylko, że w tych obszarach niezbędne byłyby potężne inwestycje. Infrastrukturalny próg wejścia w tego typu obszarach jest bardzo wysoki.

A w wypadku AI? Mamy ludzi z potencjałem, trzeba jeszcze dokupić komputery oraz ułatwić dostęp do danych. Zaczyna się coraz więcej u nas dziać w tym obszarze – chociażby na Politechnice Gdańskiej. Choć Polska nie ma wielkich osiągnięć światowych w tym zakresie, to jest wielu Polaków, którzy uczestniczyli w opracowywaniu bardzo ważnych, przełomowych nieraz rozwiązań i którzy mogą stanowić pewną inspirację, a część z nich – zapewne także i pomoc. Uważam, że 90% sukcesu mamy tu na wyciągnięcie ręki.

W obszarze AI 90% sukcesu Pomorze ma na wyciągnięcie ręki – mamy ludzi z potencjałem, trzeba byłoby jeszcze dokupić komputery oraz ułatwić dostęp do danych. Choć Polska nie ma wielkich osiągnięć światowych w AI, to jest wielu Polaków, którzy uczestniczyli w opracowywaniu bardzo ważnych rozwiązań i którzy mogą stanowić pewną inspirację, a nawet pomoc.

Rozumiem, że w czarnym scenariuszu nadal będziemy skazani na rozwiązania opracowywane przez globalne koncerny technologiczne. Czy ta wizja powinna nas aż tak martwić?

Uważam, że oddanie nas w ręce globalnych koncernów jest scenariuszem nie tyle czarnym, co bardzo ryzykownym. Byliśmy ostatnio świadkami tego, że wiodące sieci społecznościowe zablokowały Donaldowi Trumpowi dostęp do swoich kont. Co będzie dalej? Firmy te będą mogły decydować o tym, jakie informacje udostępniać na swoich łamach użytkownikom, a jakie nie? Coraz częściej już teraz jesteśmy tego świadkami. Takie praktyki mogą zostać przeniesione właściwie na każdą dziedzinę życia.

Jestem przekonany o tym, że stawką obecnego wyścigu jest tak naprawdę nasza wolność. W coraz większym stopniu żyjemy dziś, będąc pod kontrolą wielkich globalnych firm – nosimy ich urządzenia w kieszeni, pracujemy dla nich, korzystamy z ich aplikacji, udostępniamy im swoje dane, nieraz również te wrażliwe. Czy myśląc o naszym bezpieczeństwie, w obecnych realiach bardziej od innych państw nie zagrażają nam wielkie firmy, które mogą – obecnie lub w przyszłości – mieć inne interesy, niż my?

Najlepszym sposobem na to, by czuć się dziś wolnymi, jest przeciwdziałanie nadmiernemu uzależnieniu od koncernów i budowanie własnych zdolności i zasobów w obszarze AI. W innym wypadku już za kilka lat każdy z nas może widzieć świat oczami marketingowców dużych firm. Moim zdaniem – i mówię to z pełną odpowiedzialnością – byłaby to dla nas cywilizacyjna katastrofa.

Najlepszym sposobem na to, by czuć się dziś wolnymi, jest przeciwdziałanie nadmiernemu uzależnieniu od koncernów i budowanie własnych zdolności i zasobów w obszarze AI. W innym wypadku już za kilka lat każdy z nas może widzieć świat oczami marketingowców dużych firm.

Kategorie
Pomorski Przegląd Gospodarczy

Zanim spuścimy technologię ze smyczy…

Pobierz PDF

Golem finansów

Kiedy na początku lat 80. ubiegłego wieku globalna gospodarka zmagała się ze skutkami wysokich stóp procentowych, mających na celu ograniczenie inflacji, w Stanach Zjednoczonych podatny grunt znalazła koncepcja deregulacji sektora finansowego. Miał to być sposób na rozruszanie gospodarki. Wkrótce potem podchwyciły go inne kraje. Tak zaczęła się epoka ufinansowienia, czyli okres relatywnie szybkiego wzrostu gospodarczego, ale także ekspansji sektora finansowego, ustanawiania coraz to nowych rekordów zadłużenia, baniek spekulacyjnych oraz narastających różnic dochodowych.

Kumulacja negatywnych zjawisk związanych z nadmiernym ufinansowieniem znalazła wyraz w postaci globalnego kryzysu finansowego, którego skutki odczuwamy do dziś. Choć po kryzysie zaczęło się „sprzątanie” (zmiany regulacyjne), to stworzony ludzkimi rękami golem finansów pozostaje trudny do okiełznania – zmienia postać (rola banków wprawdzie nieco zmalała, ale rozwijają się pozabankowe formy działalności), śmiało wkracza w nowe obszary (nowe instrumenty), a wszystko niezmiennie zasilane jest przez tani pieniądz.

Technologia na ratunek

Przywołuję historię ufinansowienia nie bez powodu. Mam wrażenie, że jesteśmy świadkami formowania się podobnego mechanizmu i kreowania kolejnego golema. Tym razem „zbawcą” ma być szeroko rozumiana technologia, występująca gdzie się da i w jakiej się da postaci.

Na pierwszy rzut oka może się wydawać, że oba procesy mają ze sobą niewiele wspólnego. Technologia bowiem to coś realnego, a postęp technologiczny powszechnie kojarzy się jako proces jednoznacznie pozytywny – drzemie w nim potencjał poprawy produktywności, szybszego rozwoju, a tym samym lepszego zaspokajania potrzeb społecznych i „wyrastania” z długów. Technologia ma też wreszcie uchronić nas przed ewentualną katastrofą klimatyczną.

To wszystko prawda – innowacyjne rozwiązania mają duży potencjał czynienia dobra. Równocześnie jednak nie można zapominać, że większość wynalazków – począwszy od prostego noża – można wykorzystywać zarówno do dobrych, jak i złych celów. I nie chodzi mi o oczywiste przypadki, jak np. o energię jądrową, ale o te mniej uświadamiane konsekwencje postępu technologicznego. W sytuacji, gdy zmiany następują szybko, szczególnie łatwo jest je przeoczyć. Tymczasem poziom rozwiązań technologicznych osiągnął masę krytyczną potrzebną do tego, aby w stosunkowo krótkim czasie zupełnie przedefiniować funkcjonowanie społeczeństw i gospodarek.

Niewyartykułowane zagrożenia

Po pierwsze, technologia stwarza coraz większe pole do różnego rodzaju mniej lub bardziej subtelnych nadużyć, takich gdzie o jednoznaczną ocenę „dobre­‑złe” jest trudno. Pod tym względem podobna jest do finansów. Weźmy za przykład sposoby wykorzystywania danych o konsumentach, które są w posiadaniu firm technologicznych. Dzięki temu znają nas one dziś często lepiej, niż my samych siebie. Stąd już prosta droga do wpływania na nasze decyzje. Nie tylko te zakupowe, ale też te, dotyczące prywatnego życia czy funkcjonowania w społeczeństwie (np. decyzje wyborcze).

Technologia stwarza coraz większe pole do różnego rodzaju mniej lub bardziej subtelnych nadużyć, takich gdzie o jednoznaczną ocenę „dobre­‑złe” jest trudno. Pod tym względem podobna jest do finansów.

Po drugie, technologia rewolucjonizuje właśnie rynek pracy. Gdy kapitał jest tani, coraz powszechniejsze staje się zastępowanie istniejących miejsc pracy szeroko rozumianymi maszynami (automaty, roboty, wyspecjalizowane oprogramowanie, algorytmy itd.). To prawda, że towarzyszy temu powstawanie nowych stanowisk, tyle tylko, że wymagają one często zupełnie nowych kompetencji – człowiek ma się niejako „nagiąć” do maszyn. Przy okazji pojawiają się liczne napięcia społeczne i gospodarcze. Jest też wysoce prawdopodobne, że nie wszyscy temu wyzwaniu podołają. W takiej sytuacji – chcąc nie chcąc – zasilą pewnie rzesze tzw. gig economy, czyli gospodarki bazującej na realizacji krótkoterminowych zadań i projektów, a nie stałej pracy. Jeśli procesów automatyzacji właściwie się nie ukierunkuje, a ludziom nie zapewni właściwych kompetencji, to na poziomie całego społeczeństwa można oczekiwać dalszej polaryzacji na relatywnie wąską grupę „wygranych” i szerokie rzesze „przegranych”. Paradoksalnie tym drugim może nie pozostać nic innego, jak jeszcze głębsze osuwanie się w otchłań wirtualnego świata, jako formy ucieczki przed bolesną rzeczywistością.

Jak się wydaje, technologia może mieć bardziej dramatyczny wpływ na proces narastania nierówności dochodowych, niż ufinansowienie, szczególnie gdy dopuści się do dalszej monopolizacji wielu rozwiązań, koncentracji ich w rękach nielicznych hegemonów. Badania wskazują, że ze względu na wielorakie bariery – w tym te celowo tworzone przez wiodących graczy – proces rozlewania się nowoczesnych technologii po średnich i małych firmach postępuje dziś szczególnie wolno.

Jednak szczególnie niebezpieczna wydaje się pokusa sojuszu „władzy i technologii”. Technologia oferuje dziś rozwiązania, które w rękach autorytarnych przywódców (i nie tylko) mogą okazać się bardzo cenną zdobyczą, pozwalającą na ziszczenie wizji pełnej kontroli nad społeczeństwem. To scenariusz, który w wielu krajach krok po kroku się realizuje, o czym dobitnie świadczą rozbudowywane systematycznie systemy inwigilacji. Wszystko pod płaszczykiem ochrony obywateli, ale wystarczy, że cała ta infrastruktura i dane trafią w niepowołane ręce, a obróci się to przeciwko nam – społeczeństwu.

Szczególnie niebezpieczna wydaje się pokusa sojuszu „władzy i technologii”. Technologia oferuje dziś rozwiązania, które w rękach autorytarnych przywódców (i nie tylko) mogą okazać się bardzo cenną zdobyczą, pozwalającą na ziszczenie wizji pełnej kontroli nad społeczeństwem.

Czy rządom naprawdę zależy?

Tak jak w przypadku ufinansowienia, rządy mają co najmniej kilka potencjalnych powodów, by opóźniać regulację w obszarze technologii. Dwa już wspomniałem – to oczekiwanie, że technologia pozwoli gospodarce szybciej się rozwijać oraz potencjalna chęć jej wykorzystania do własnych celów. Kolejnym – chyba najbardziej dziś istotnym – jest siła głównych graczy technologicznych i stojące za nimi wpływy i pieniądze. Trudno politykom przeciwstawiać się lobby, które ma zdolność kształtowania opinii publicznej, w tym zachowań wyborczych.

Nie ma także co wierzyć w samoograniczanie się firm technologicznych, w tak zwaną samoregulację. Lekcja wyniesiona z finansów jest w tym względzie jednoznaczna: etyka w biznesie jest wciąż dobrem rzadkim, więc jeśli nawet znajdą się firmy, które zrezygnują z określonego zysku ze względów etycznych, to w ich miejsce pojawi się kilka innych, które takich zahamowań nie będą miały. Po globalnym kryzysie finansowym chciwość wcale nie zniknęła – wciąż poszukuje ona nowych okazji, aby się ujawnić.

Wydaje się, że to ostatnia chwila by się zatrzymać i postawić pytanie: w jakim świecie chcemy żyć? Komu projektowane rozwiązania systemowe mają docelowo służyć: człowiekowi czy technologii? To tylko na pozór pytanie retoryczne. Może się bowiem okazać, że skupiając się na produktywności i postępie, zaprojektujemy świat „pod technologię”, w którym człowiek zostanie zepchnięty na drugi plan. Będzie to świat pogłębiających się różnic dochodowych i społecznych, w którym głównym beneficjentem postępu pozostanie relatywnie wąska grupa właścicieli technologii i fabryk robotów. A być może nawet świat, w którym przeciętni obywatele znajdą się w sytuacji stada baranów pasących się na łące otoczonej elektronicznym pastuchem.

Wydaje się, że to ostatnia chwila by się zatrzymać i postawić pytanie: w jakim świecie chcemy żyć? Komu projektowane rozwiązania systemowe mają docelowo służyć: człowiekowi czy technologii?

W kontekście regulacji technologii my, obywatele nie możemy w pełni ufać rządom, szczególnie tym o zapędach autorytarnych. Dla nich sojusz z technologią może służyć realizacji własnych celów. Potrzeba więc wypracowania mechanizmów obywatelskiej presji i kontroli. Stoi przed nami olbrzymie wyzwanie odnalezienia wąskiej ścieżki wytyczającej zdrowy kompromis pomiędzy wykorzystaniem technologii (innowacja, konkurencyjność) i równoczesnym dbaniem o ważne dla nas, ludzi, wartości.

Społeczeństwom już wkrótce może być trudno zachować sterowność i układać świat w taki sposób, by to człowiek znajdował się na pierwszym miejscu. Dlatego zanim całkowicie spuścimy postęp technologiczny ze smyczy, musimy zmierzyć się z wyzwaniem efektywnej jego kontroli. A może już jest na to za późno?

Kategorie
Pomorski Przegląd Gospodarczy

Technologia do ujarzmienia technologii?

Pobierz PDF

15 marca 2019 r. 51 osób modlących się w dwóch meczetach w Nowej Zelandii zginęło z rąk terrorysty. Śledztwo wykazało, że przez wcześniejszych kilka lat kształtował on swoje poglądy i czerpał wiedzę z internetu. Przeszedł ścieżkę od prostego zainteresowania tematyką rasistowską do śmiertelnej radykalizacji.

Dwa lata później, 9 stycznia 2021 r., rzecznik prasowy Białego Domu oświadcza, że prezydent Donald Trump nie może wypowiedzieć się na temat sytuacji w kraju, ponieważ nie ma dostępu do sieci społecznościowych, które zablokowały mu dzień wcześniej jego konta.

Te dwa odległe zdarzenia łączy technologia. A w szczególności technologia tzw. platform (sieci) społecznościowych. Wpływ tych systemów na nasze życie to tematyka wielowątkowa i wielowarstwowa. Zacznijmy jednak od fundamentów, czyli właśnie technologii.

Sieci uzależnienia

Historycznie, pierwszą funkcją portali społecznościowych były proste „połączenia” między osobami. Gdy użytkownik znalazł już w systemie znajomych, nie miał do dyspozycji zbyt wielu opcji do dalszego działania. Dlatego zespoły tworzące takie systemy w najróżniejszy sposób poszukiwały sposobów na utrzymanie i zwiększenie zaangażowania użytkowników. Wyścig ten wygrały firmy, które do współpracy zaprosiły psychologów i wykorzystały słabość naszego mózgu. Sean Parker, jeden z twórców potęgi Facebooka, opowiadał niedawno, że najsłynniejszy guzik świata, czyli „Like” został wymyślony w taki sposób, by dawać użytkownikom mikrozastrzyk dopaminy, wciągając ich w pętlę przyjemności i zwiększając w konsekwencji ich zaangażowanie. Twórcy treści zaczęli walczyć o „lajki” i proces tworzenia „contentu” przeniósł się z prywatnych stron internetowych do systemów społecznościowych.

Drugą istotną funkcją technologii społecznościowej jest automatyczne rekomendowanie użytkownikom treści na podstawie tego, co wcześniej czytali lub oglądali. Na pierwszy rzut oka rekomendacje są czymś sprawdzonym i pożądanym w realnym świecie – np. fan wyścigów chce oglądać wyścigi, a nie bilard. Problem pojawia się, gdy wchodzimy w tematy oddziałujące na nasze poglądy. Udowodniono, że aby utrzymać użytkownika, trzeba rekomendować mu treści coraz mocniejsze. A skąd algorytm zna moc danej treści? Na podstawie statystyk: inni użytkownicy, którzy sięgnęli po takie treści, sięgnęli później po kolejne. Użytkownicy zaangażowani „ciągną” więc w swoim zaangażowaniu innych. Nie ma miejsca na umiarkowanie – cały system skonstruowany jest tak, aby użytkownicy „ekstremalni” „ciągnęli” tych, którzy jeszcze nie są ekstremalni. Nie ma znaczenia czy ekstremum jest prawicowe, lewicowe, religijne czy inne.

Systemy społecznościowe są zaprojektowane, aby uzależniać. To świadoma konstrukcja, która jest niezbędna, żeby ich właściciele mogli realizować swoje cele biznesowe. Mamy więc przed sobą toksyczny koktajl, gdzie twórcy treści walczą o dopaminę („lajki”), a ich konsumenci zamykają się w swoich bańkach systematycznie przesuwających się w stronę ekstremum. Dodatkowo, cała konstrukcja ułatwia cyrkulację informacji przekłamanych czy wręcz całkowicie fałszywych – dla algorytmów rekomendacyjnych nie ma to znaczenia.

Systemy społecznościowe są zaprojektowane, aby uzależniać. To świadoma konstrukcja, która jest niezbędna, żeby ich właściciele mogli realizować swoje cele biznesowe. Mamy więc przed sobą toksyczny koktajl, gdzie twórcy treści walczą o „lajki”, a ich konsumenci zamykają się w swoich bańkach systematycznie przesuwających się w stronę ekstremum.

Analiza zachowania terrorysty z Nowej Zelandii pokazuje, że algorytmizacja miała znaczący wpływ na jego radykalizację. Natomiast analiza obecności Donalda Trumpa w internecie wskazuje, że osoby umiejące wykorzystać ten naturalny przechył w stronę radykalizmu szybko budują dużą popularność. Dlatego Trump nie chciał wrócić do bardziej tradycyjnych metod komunikacji – straciłby wtedy całą swoją przewagę.

Zbyt duże, by uregulować?

To nie koniec: największe światowe sieci społecznościowe mają nie tylko ogromny zasięg, ale też pozostają bez żadnej kontroli. W tradycyjnym świecie jakakolwiek rzecz, która ma potencjał do uzależnienia jest dosyć szybko regulowana odpowiednimi przepisami, np. hazard, alkohol, a nawet słodzone napoje. Jak na razie nie widziałem żadnego realnego pomysłu na to, jak ograniczyć toksyczność, szerzenie nieprawdy i tendencje do uzależniania produktów społecznościowych.

W tradycyjnym świecie jakakolwiek rzecz, która ma potencjał do uzależnienia jest dosyć szybko regulowana odpowiednimi przepisami, np. hazard, alkohol, a nawet słodzone napoje. Jak na razie nie widziałem żadnego realnego pomysłu na to, jak ograniczyć toksyczność, szerzenie nieprawdy i tendencje do uzależniania produktów społecznościowych.

Właściciele platform zdają sobie sprawę z problemu, jednak nie są w stanie zaproponować żadnego prawdziwego rozwiązania, bo samo założenie ich biznesu jest problematyczne. Dlatego dzisiejsze ostrzeżenia systemów, że jakaś opublikowana informacja jest potencjalnie fałszywa przypominają stare przysłowie o diable, który po przebraniu się w ornat dzwonił na mszę własnym ogonem. Tak samo usunięcie z Twittera Donalda Trumpa jest szkolnym przykładem szukania kozła ofiarnego w sytuacji, gdy zasadniczy, pierwotny problem istnieje zupełnie gdzie indziej. Zresztą, po tym fakcie szerokie grona uznały to za absolutny zamach na wolność słowa. Wskazano, że wielu użytkowników używających brutalnego języka nadal ma konta na tej platformie.

Sytuacja tzw. deplatformingu, czyli usuwania z platform społecznościowych określonych osób, które mają poglądy zgodne z prawem, ale nie podobają się właścicielom platform przestała być problemem niszowym. Fakt, że bez względu na jej poglądy, osoba „wykluczona z platformy” nie ma żadnej realnej możliwości odwołania się od decyzji jest bardzo podobny do sytuacji, którą w latach 90. opisywała Naomi Klein, kiedy przestrzegała przed prywatyzacją przestrzeni miejskiej. Chodziło jej wówczas o wielkie prywatne centra handlowe, w których ludzie spędzają coraz więcej czasu. Klein twierdziła, że oddanie publicznej przestrzeni we władanie prywatnym firmom wprowadzi wprost cenzurę do debaty publicznej. Jak widać, miała rację, nawet jeżeli współczesna „przestrzeń” jest wirtualna.

Technologia na ratunek?

Niestety, wielkość firm stojących za platformami społecznościowymi powoduje, że jakakolwiek polityczna czy ekonomiczna walka z nimi będzie długa i kosztowna. Czy jednak to właśnie technologia, która wplątała nas przecież w tę sytuację, nie mogłaby nam pomóc się z niej wyplątać?

Na początek zastanówmy się, dlaczego tak duża część świata używa dużych platform społecznościowych pomimo opisanych powyżej wad. Wyjaśnieniem jest fakt, że oferują one użyteczne funkcje, a ich konkurencja jest po prostu bardzo słaba. Czy posiadanie alternatywy równie dobrej technologicznie, lecz działającej w mniej toksycznym modelu biznesowym, mogłoby sprawić, że stopniowo „uwalnialibyśmy” się od firm stojących za dzisiejszymi (zbyt) dużymi platformami?

Znajdziemy już pierwsze przykłady takich inicjatyw. Od kilku tygodni komunikator Whatsapp (należący do firmy Facebook) traci miliony użytkowników na rzecz konkurencji, w tym m.in. komunikatora Signal, prowadzonego przez fundację non­‑profit i opartego o tzw. oprogramowanie otwarte. Fundacja wykorzystała z sukcesem temat prywatności i anonimowości, przekonując internautów, że Whatsapp zupełnie tego nie zapewnia. Ale było to możliwe tylko dlatego, że jej produkt (Signal) absolutnie nie odstaje funkcjonalnie od większego konkurenta. Oczywiście Whatsapp użytkowników nadal liczy w miliardach. Należy jednak pamiętać o zasadzie „społecznej kuli śnieżnej”, gdzie przechodzący ciągną za sobą swoich znajomych. Przy produkcie technologicznie równie dobrym, co główna konkurencja, kolejne miliony użytkowników są coraz łatwiejsze do zdobycia.

Drugim miejscem, gdzie technologia mogłaby „przyjść z odsieczą”, jest dostarczenie łatwego w użyciu narzędzia, pozwalającego użytkownikom zrozumieć treści, które otrzymujemy. Czy informacja, którą czytamy jest fałszywa, czy prawdziwa. Czy treść jest źródłowa, czy pochodzi z powtórzenia. Czy jest relacją czy opinią i czy cytuje fakty, które można zweryfikować. Ten ostatni aspekt jest o tyle ważny, że współczesna dezinformacja stała się zindustrializowana: służby specjalne niektórych krajów nie kryją się, że stoją za określonymi destabilizującymi treściami.

Technologia pomogłaby internautom, dostarczając łatwe w użyciu narzędzie, pozwalające zrozumieć treści, które otrzymujemy. Czy informacja, którą czytamy jest fałszywa, czy prawdziwa. Czy treść jest źródłowa, czy pochodzi z powtórzenia. Czy jest relacją czy opinią i czy cytuje fakty, które można zweryfikować.

Oczywiście pomysł jednego, centralnego „weryfikatora treści” byłby bardzo zły, przypominający w dodatku czasy słusznie minione. Nie ma zresztą takiej potrzeby. Już dzisiaj istnieją bardzo wysokiej jakości internetowe strony tzw. fact­‑checkowe. Są one często oparte o instytucje działające według etyki dziennikarskiej i poddane prawu prasowemu. Dodatkowo, część fałszywych informacji generowanych algorytmicznie można już wykryć dzięki innymi algorytmom. Tak można rozpoznać tzw. deep fake, czyli realistyczne montaże wideo robione przez algorytmy.

Wydaje się więc, że dobrze wykorzystana technologia mogłaby nam pomóc w walce ze źle wykorzystywaną technologią, ale pod warunkiem, że będzie łatwa w użyciu dla przeciętnego internauty. Dzisiaj, po przeczytaniu informacji znalezionej na Facebooku, użytkownik musi samodzielnie przejść na wybrany przez siebie portal sprawdzający i poszukać, czy ktoś już napisał analizę na temat tej informacji i czy sprawdził podane fakty. Niestety nie ma jeszcze metody, aby mógł automatycznie, w miejscu gdzie otrzymuje informację (wideo, tekst czy obraz) sprawdzić jej wiarygodność, korzystając ze źródeł, którym ufa. Najlepiej, by taki system działał jak nieinwazyjna „nakładka” na dotychczasowe aplikacje.

Bez względu jednak na to, jakie rozwiązania technologiczne przyniesie nam przyszłość i czy nasz komputer będzie nam sprzymierzeńcem czy też wrogiem, pozostaje zawsze jeszcze kwestia powszechnej świadomości. Bez jej zwiększania nie stworzymy motywacji do wyjścia ze swojej bańki informacyjnej i do opierania naszej wiedzy na sprawdzonych niezależnie faktach. Całe szczęście ta świadomość rośnie: już dzisiaj w polskiej szkole dzieci uczą się o niebezpieczeństwach internetu, w tym o jakości treści. My też możemy dużo zrobić, chociażby dofinansowując darowiznami fundacje (wiarygodne!), budujące alternatywy.

Bez względu na to, jakie rozwiązania technologiczne przyniesie nam przyszłość i czy nasz komputer będzie nam sprzymierzeńcem czy też wrogiem, pozostaje zawsze jeszcze kwestia powszechnej świadomości. Bez jej zwiększania nie stworzymy motywacji do wyjścia ze swojej bańki informacyjnej i do opierania naszej wiedzy na sprawdzonych niezależnie faktach.

A jako puentę – jakkolwiek ironicznie by ona nie brzmiała, należy przypomnieć, że najlepiej propagować wiedzę o alternatywach wobec istniejących platform społecznościowych… przez publikację tego właśnie na tych platformach. Kiedy więc widzisz artykuł, notkę lub propozycję rozwiązania, które pomaga przezwyciężyć dzisiejszy klincz między interesem użytkownika a producenta systemu społecznościowego… to bez wahania podaj dalej!

Kategorie
Pomorski Przegląd Gospodarczy

Jak cyfryzować firmę z tradycyjnej branży?

Pobierz PDF

Rozmowę prowadzi Marcin Wandałowski – redaktor prowadzący „Pomorskiego Przeglądu Gospodarczego”.

Kiedy powstała firma Elmal i w czym się specjalizuje?

Przedsiębiorstwo powstało w 1992 r. i od początku działalności skupia się na budowie infrastruktury podziemnej – sieci gazociągowych, wodno­‑kanalizacyjnych, ciepłowniczych i technologicznych.

W jaki sposób spółkę o takim profilu można scyfryzować?

Zanim zacznę mówić o cyfryzacji, chciałabym pokrótce scharakteryzować branżę, w której działamy. Dominują w niej firmy małe oraz mikroprzedsiębiorstwa. Silną barierą dla cyfryzacji i wdrażania innowacji jest presja cenowa. Pozyskiwanie zleceń odbywa się za pomocą przetargów, a niestety wciąż w Polsce zmagamy się z kryterium najniższej ceny. W efekcie firmy chcą realizować zlecenia jak najtaniej, co powoduje możliwie największe cięcie kosztów. Dlatego też zamiast dążenia do rozwoju i wdrażania nowych technologii, obserwujemy u konkurencji nierzadko odwrotny trend: ograniczanie zaplecza biurowego czy wprowadzanie optymalizacji kosztowej w zatrudnianiu pracowników. Trudno oceniać te zjawiska pozytywnie.

W kontraście do postawy większości uczestników tego rynku, nasze podejście opiera się na profesjonalizacji. Wolimy realizować zadania trudne i nietypowe oraz dążyć do podnoszenia naszych zdolności realizacyjnych. Dzięki temu mamy budżet, by wdrażać różnego rodzaju ulepszenia.

Kiedy i dlaczego zapadła decyzja o konieczności cyfryzacji przedsiębiorstwa? Jakie argumenty za tym przemawiały?

Nikt nigdy nie stworzył czegoś w stylu „planu cyfryzacyjnego” firmy – nie było jednej narady, na której stwierdziliśmy, że cyfrowe rozwiązania to przyszłość i koniecznie trzeba zacząć z nich korzystać. Proces wdrażania zmian jest ciągły i przebiega naturalnie – gdy zauważamy problem, często w postaci nieuporządkowania czy przedłużających się procedur, wypracowywane jest rozwiązanie.

Na czym polegała cyfryzacja Pani firmy? Jakie działania zostały podjęte?

W naszej firmie jeszcze 10 lat temu do wyceny robót używano kalkulatorów, przez co proces ten był żmudny i miał często intuicyjny charakter. Dziś natomiast mamy stworzony specjalny algorytm, który na podstawie zadanych kryteriów oblicza opłacalność zadania budowlanego. Szablony wielu dokumentów wypełniają się automatycznie, a podgląd zaawansowania procesu projektowego jest możliwy dzięki jednemu kliknięciu odświeżającemu raport. W ten sposób możemy realizować więcej zadań jednocześnie, pilnować terminów, nadążać z „papierkową robotą”, której w tej branży jest sporo.

Warto tu jednak dodać, że sama cyfryzacja firmy nie rozwiąże wszystkich jej problemów i bolączek. Naprzeciw cyfryzacji muszą też wyjść partnerzy i instytucje publiczne. Do tego zdecydowanie przyczyniła się pandemia koronawirusa, kiedy to dzięki maksymalnemu ograniczeniu kontaktów międzyludzkich, proces podpisywania umów i wymiany ważnych dokumentów przeniósł się do sieci. Nareszcie, bo wcześniej te czynności trwały nieraz absurdalnie długo, szczególnie gdy siedziba kontrahenta czy urzędu znajdowała się daleko od nas. Zauważam też zdecydowaną poprawę, jeśli chodzi o elastyczne podejście e‑urzędów. Najlepszy przykład: zaświadczenie z urzędu skarbowego, po które trzeba było się jeszcze niedawno stawiać osobiście, odczekując swoje w kolejce, przychodzi teraz na skrzynkę mailową.

Dzięki maksymalnemu ograniczeniu kontaktów międzyludzkich, proces podpisywania umów i ważnych dokumentów przeniósł się do sieci. Nareszcie, bo wcześniej te czynności trwały nieraz absurdalnie długo.

Na co warto zwracać uwagę, wdrażając rozwiązania cyfrowe do firmy? Jakie mogą pojawić się bariery?

Do cyfryzacji procesów trzeba podchodzić rozważnie, ponieważ często chcąc rozwiązać jakiś problem czy coś usprawnić, działając w sposób nieprzemyślany można wygenerować odwrotny skutek. Duża organizacja, w której wcześniej pracowałam wprowadziła chociażby elektroniczny system obiegu dokumentów, ale okazało się, że nie wystarczyło załączać ich online – ostateczną ważność miały bowiem papierowe oryginały. Mimo to nałożono na pracowników obowiązek przekazywania każdego dokumentu zarówno przez system, jak i na żywo – co powodowało podwojenie obowiązków i rosnącą frustrację.

Do cyfryzacji procesów trzeba podchodzić rozważnie, ponieważ często chcąc rozwiązać jakiś problem, usprawnić coś, działając w sposób nieprzemyślany można wygenerować odwrotny skutek.

Podstawą jest więc analityczne przemyślenie procesu. Po pierwsze, zdefiniowanie, jaki problem ma być rozwiązany – może się bowiem okazać, że chcemy ewidencjonować dokumenty, do których nigdy nie będziemy później wracali. W efekcie cyfryzacja spowoduje tylko dodatkowe nakłady pracy i zniechęci pracowników do korzystania z narzędzi cyfrowych Na początku zadaję więc zawsze pytania: co chcemy osiągnąć? Czy nie możemy osiągnąć tego w inny sposób? Co uzyskamy po wdrożeniu systemu?

Po drugie, narzędzie musi być łatwe i wygodne w obsłudze. Ważny jest wybór tylko tych funkcjonalności, które będą kluczowe z punktu widzenia procesu. Wreszcie, narzędzie musi być także zaprojektowane w sposób elastyczny – może się przecież okazać, że coś pominęliśmy, coś chcemy ująć inaczej. Możliwość szybkiego dodawania modułów znacznie zwiększa szanse na dłuższą żywotność rozwiązania cyfrowego. W innym wypadku szybko wyjdzie ono z użytku – wszak rzeczywistość okołobiznesowa zmienia się dziś w coraz bardziej dynamicznym tempie.

W mojej ocenie największe bariery związane z cyfryzacją – wbrew temu, co wielu się wydaje – wcale nie mają charakteru finansowego. Rozwiązania IT szybko dziś tanieją, a często wiele procesów na poziomie małego przedsiębiorstwa można usprawnić korzystając z darmowych lub niedrogich narzędzi. Bardziej chodzi więc o „przyjęcie się” systemu w organizacji, gdyż pracownicy najczęściej mają awersję do zmian utartych schematów działania. Największą bariera jest zatem związana z naszą mentalnością.

Największe bariery związane z cyfryzacją wcale nie mają charakteru finansowego. Rozwiązania IT szybko dziś tanieją, a często wiele procesów na poziomie małego przedsiębiorstwa można usprawnić korzystając z darmowych lub niedrogich narzędzi. Bardziej chodzi o „przyjęcie się” systemu w organizacji, gdyż pracownicy mają często awersję do zmian utartych schematów działania.

Jaki jest efekt końcowy podjętego wysiłku?

Widzę same korzyści z rozwoju cyfrowego naszej firmy. Pierwszą jest znacznie większa kontrola – co często przekłada się na ograniczenie strat przedsiębiorstwa. W sposób przejrzysty widzimy terminy i warunki wykonania umów, unikamy więc kar umownych za ich naruszenie. Możemy podejrzeć stan magazynowy, więc zanim złożymy zamówienie możemy zweryfikować, czy nie mamy potrzebnego materiału na stanie. Mamy pewność, że urządzenia którymi dysponujemy są sprawne, więc unikamy sytuacji, w której wysyłamy pracowników na miejsce pracy z niedziałającą maszyną. Poza tym, zyskujemy na czasie. Szybciej wypełniamy dokumenty, podpisujemy umowy, realizujemy zadania. Oszczędzony czas możemy poświęcić np. na planowanie dalszych zmian.

Kategorie
Pomorski Przegląd Gospodarczy

Polski przemysł – jak jest z tym 4.0?

Pobierz PDF

Rozmowę prowadzi Marcin Wandałowski – redaktor prowadzący „Pomorskiego Przeglądu Gospodarczego”.

Na czym polega cyfryzacja przedsiębiorstwa przemysłowego?

Zależy o czym tak naprawdę chcemy rozmawiać – termin ten jest bowiem bardzo szeroki. Jeśli chodzi stricte o cyfryzację, to większość polskich firm przemysłowych, zarówno dużych, średnich, małych, jak i mikro, jest już stosunkowo wysoko ucyfrowionych – wiele z nich korzysta z usług w chmurze, z systemów ERP, MES czy CRM, z mediów społecznościowych w marketingu, z LinkedInu w celu szukania nowych kontrahentów, z platform współpracy ze swoimi dostawcami etc. Mogę śmiało powiedzieć, że polskie przedsiębiorstwa są w obszarze szeroko rozumianej cyfryzacji dobrze poinformowane o możliwych rozwiązaniach i korzystają z nich wedle swoich potrzeb.

Znacznie gorzej wygląda to, gdy mówimy o przemyśle 4.0. Fakt, że dane przedsiębiorstwo jest zaawansowane cyfrowo nie oznacza bowiem, że potrafi połączyć poszczególne systemy IT ze sferą OT (operational technologies), czyli z systemami przemysłowymi. Mówiąc prościej: dane generowane przez czujniki zainstalowane w maszynach przemysłowych rzadko kiedy są podłączone do cyfrowych baz danych, mogących analizować je i wyciągać z nich wnioski na bieżąco.

Polskie przedsiębiorstwa są w obszarze szeroko rozumianej cyfryzacji dobrze poinformowane o możliwych rozwiązaniach i korzystają z nich wedle swoich potrzeb. Znacznie gorzej wygląda to, gdy mówimy o przemyśle 4.0.

Czy jednak każda firma przemysłowa chcąca utrzymać swoją konkurencyjność, powinna dziś myśleć o wykorzystywaniu rozwiązań przemysłu 4.0?

Na pewno nie można wrzucić wszystkich przedsiębiorstw przemysłowych do jednego worka – mocno generalizując, wskazałbym na pięć grup firm, o różnej charakterystyce i potrzebach.

Pierwszą z nich stanowią przedsiębiorstwa, w których już od lat wytwarzane produkty są bacznie „śledzone” i analizowane przez maszyny podczas całego procesu produkcyjnego. Wynika to najczęściej z restrykcyjnych wymogów prawnych czy rygorystycznych wymogów branżowych, jakimi charakteryzują się niektóre gałęzie przemysłu, jak np. część spożywczego, chemicznego czy motoryzacyjnego. Firmy z tej grupy zaczęły więc de facto funkcjonować w ramach przemysłu 4.0 jeszcze zanim zdążyliśmy się przyzwyczaić do tego „modnego” ostatnio terminu.

Druga grupa to przedsiębiorstwa, które w pełni świadomie dokonują transformacji w kierunku przemysłu 4.0 – głównie po to, by zwiększyć swoją konkurencyjność na rynkach międzynarodowych. W niektórych branżach nie ma już po prostu innej drogi – dość powiedzieć, że wiele polskich zakładów utraciło swoją „tradycyjną” przewagę związaną z niższymi kosztami. Okazuje się dziś, że nowoczesne fabryki z Niemiec, Włoch czy Hiszpanii są w stanie dzięki zastosowaniu nowych technologii wytwarzać produkty nie tylko szybciej, ale też o 10, 15 czy 20% taniej od firm z Polski.

Nowoczesne fabryki z Niemiec, Włoch czy Hiszpanii są dziś w stanie dzięki zastosowaniu nowych technologii wytwarzać produkty nie tylko szybciej, ale też o 10, 15 czy 20% taniej od firm z Polski.

Następnie wyróżniłbym firmy, które w ostatnich latach poważnie zastanawiały się nad wdrażaniem elementów technologicznych przemysłu 4.0. Niektóre z nich je nawet testowały, ale summa summarum – spasowały. Przedsiębiorstwa te są z reguły nowoczesne, posiadają wysokiej jakości oprogramowanie i systemy, lecz nie widzą dziś dalszych możliwości związanych z automatyzacją, z bieżącym analizowaniem i wykorzystywaniem jeszcze większej ilości danych. Kolejny krok w kierunku przemysłu 4.0 oznaczałby bowiem dla nich konieczność całkowitego przedefiniowania dotychczasowych modeli biznesowych oraz wiązałby się z koniecznością poważnych inwestycji. Ten skok finansowy – szczególnie mając na uwadze kryzys związany z pandemią – jest dziś dla wielu z tych firm praktycznie nierealny.

Do czwartej grupy zaklasyfikowałbym firmy, które wytwarzają produkty quasi­‑jednostkowe: elementy czy urządzenia pojedyncze bądź wytwarzane w niewielkich seriach. Każdorazowo są to wyroby wymagające konkretnej specyfikacji, w związku z czym w perspektywie kolejnych projektów liczba zmiennych jest tak duża, że procesów produkcyjnych nie da się powtarzać, standaryzować. Dla tego typu przedsiębiorstw rozwiązania z zakresu przemysłu 4.0 nie mają więc zbyt dużej wartości – po co bowiem inwestować w system analizujący masę danych z procesu A, skoro za chwilę poszczególne maszyny i urządzenia zostaną skonfigurowane pod proces B?

Ostatnia wreszcie grupa to przedsiębiorstwa, które od lat wykonują pewne powtarzalne produkty dla swoich stałych klientów. Z jednej strony nie widzą one potrzeby opuszczania swojej strefy komfortu i ryzykowania z wchodzeniem na nieznane im obszary technologiczno­‑organizacyjne. Z drugiej strony mogłoby to być też źle odebrane przez ich odbiorców, którzy mogliby uznać, że ich wieloletni, sprawdzony dostawca staje się nagle nieprzewidywalny. Tego typu firmy nie będą więc inwestowały w technologie przemysłu 4.0 tak długo, jak nie będą ich oczekiwali ich klienci.

Skupmy się na tych firmach, dla których dostosowanie działalności do wymogów przemysłu 4.0 byłoby obecnie całkowicie uzasadnione – czy to ze względu na szanse rozwojowe, czy to z uwagi na zwiększenie szansy przetrwania na rynku. Co – oprócz wspomnianych przez Pana wcześniej barier finansowych – blokuje je przed wdrożeniem rozwiązań przemysłu przyszłości?

Najważniejszym chyba problemem jest kwestia dogadania się między specjalistami IT, specjalistami OT a zarządem. W tradycyjnym modelu przemysłu każda z tych sfer ma w organizacji swoje własne, odrębne cele, natomiast przemysł 4.0 wymaga ich dogrania i uspójnienia. Każde z tych środowisk powinno zrozumieć, że sensem integracji sfery IT i OT jest spełnianie celów i wymagań sfery biznesowej. To znaczy – rozwijanie firmy poprzez zwiększanie przychodów, zmniejszanie kosztów, uzyskiwanie określonych wskaźników produktywności, efektywności, jakości etc.

Przy czym problem, o którym tu mówię dotyka przede wszystkim większych firm – w mniejszych przedsiębiorstwach realia wyglądają zazwyczaj tak, że zarząd stara się w inicjatywy związane z przemysłem 4.0 wdrożyć specjalistę ds. IT. Zazwyczaj kończy się to rozczarowaniem, gdyż IT i OT to dwa zupełnie inne światy. Warto również uwzględnić fakt, że wiele małych firm przemysłowych w ogóle nie ma własnych pracowników IT. Są one w pełni zdane na wsparcie zewnętrzne, które ogranicza się przeważnie do podstawowych procesów. W rozmowach z takimi firmami rodzą się pomysły uruchomienia centrów usług wspólnych związanych z przemysłem 4.0 na wzór biur księgowych, które powstały w latach 90. ubiegłego wieku w wyniku współpracy kilku­‑kilkunastu firm.

Drugi istotny problem dotyczy tego, że technologia zbierania, interpretacji i wykorzystywania danych przyczynia się do decentralizacji dostępu do informacji oraz podejmowania decyzji. W tradycyjnym modelu, gdy coś szwankowało, następowała awaria, kierownik zespołu diagnozował sytuację i dzwonił do właściciela lub prezesa z prośbą o podjęcie decyzji dotyczącej naprawy sprzętu czy usprawnienia procesu. W uwarunkowaniach przemysłu 4.0, kiedy dane spływają i są analizowane w sposób ciągły, specjalista ds. ich obsługi od razu, na ekranie swojego tabletu czy smartfona widzi, co i gdzie nie działa oraz jak temu zaradzić, jaką interwencję podjąć. Nagle więc może okazać się, że pracownicy firmy wiedzą o zachodzących w niej procesach więcej niż sam szef. Pewna część przedsiębiorców wciąż przyjmuje to bardzo ciężko.

Technologia zbierania, interpretacji i wykorzystywania danych przyczynia się do decentralizacji dostępu do informacji oraz podejmowania decyzji. Pewna część przedsiębiorców wciąż przyjmuje to bardzo ciężko.

Kolejna kluczowa bariera jest natomiast związana z tym, że wielu właścicieli firm nie jest gotowych na wyzwanie rekonfiguracji swojego modelu biznesowego. W szczególności przedsiębiorstwa, które przez wiele lat działały wedle utartego schematu mają dziś problem ze znalezieniem sił i werwy, by przemyśleć swoją działalność na nowo. Choć przecież są świadome korzyści związanych z wprowadzeniem zmian. Opierają się im jednak, co zresztą jest jak najbardziej naturalna reakcją – wejście w nowy model biznesowy oraz związane z tym nabywanie nowych kompetencji, nowe podejście do rynku, konieczność nowych inwestycji etc., to z perspektywy firmy zawsze ryzyko.

Dla jakiego typu polskich firm przemysłowych transformacja w kierunku przemysłu 4.0 staje się dziś „być albo nie być”?

Wskazałbym tu głównie na przedsiębiorstwa produkujące komponenty – np. elementy metalowe, z tworzyw sztucznych czy innych materiałów – de facto na podstawie wytycznych dostarczonych im przez klientów w ramach współpracy B2B. To często firmy małe, zatrudniające 20‑50 osób, których formuła funkcjonowania ogranicza się do rynku krajowego, przeważnie do 3‑10 klientów. Ich przewagi konkurencyjne to: cena, jakość i terminowość wykonania – innowacje procesowe związane z przemysłem 4.0 byłyby im w obecnych realiach bardzo potrzebne.

Tym bardziej, że firmy te z jednej strony nie mają tak szerokiego pola manewru jak przedsiębiorstwa produkujące produkty końcowe dla rynku konsumenckiego, w zakresie m.in. szybkiego reagowania na trendy rynkowe, aktywności w social mediach czy wykorzystywania nowych rozwiązań technologicznych dla lepszego dostosowywania się do preferencji klientów. Z drugiej strony muszą dziś one konkurować z zagranicznymi poddostawcami – nie tylko z Azji, lecz również z Europy Zachodniej – którzy dzięki konsolidacji oraz wykorzystaniu nowoczesnych technologii są w stanie zorganizować procesy produkcyjne w sposób bardziej elastyczny i zintegrowany, co przekłada się na większą szybkość oraz niższe koszty wytworzenia produktu końcowego.

Konsoliduj albo giń?

Taka jest brutalna prawda odnosząca się do znacznej części małych polskich przedsiębiorstw przemysłowych. Żeby przetrwać, utrzymać swoją konkurencyjność, muszą one wzmocnić swój potencjał, swoją siłę sprawczą poprzez łączenie się. Wielu właścicieli firm, którzy budowali je przez 20‑30 lat i traktują je jako swoje dzieci bardzo obawia się wizji utraty kontroli nad swoim przedsiębiorstwem. Bywa, że jest to dla nich bariera nie do przejścia. Niepodjęcie działań w tym zakresie będzie w nadchodzących latach prowadziło do znikania z rynku wielu firm z tej grupy. Z jednej strony jest to wiadomość smutna, lecz z drugiej – da to tlen dla przedsiębiorstw myślących prorozwojowo, zdolnych do konsolidacji i przeprowadzenia modernizacji po to, by móc nadal skutecznie rywalizować na rynku.

W nadchodzących latach będzie znikało wiele małych firm przemysłowych, które nie były gotowe na konsolidację. Da to tlen dla przedsiębiorstw myślących prorozwojowo, zdolnych do łączenia się i przeprowadzenia modernizacji.

Kategorie
Pomorski Przegląd Gospodarczy

U progu cywilizacyjnej transformacji

Pobierz PDF

Od zarania dziejów logika rozwoju cywilizacji ludzkiej opiera się na paradygmacie podboju i dominacji. Przez tysiące lat zasadę tę stosowaliśmy na wszystkich polach działania (a tak naprawdę eksploatacji) – w odniesieniu zarówno do Ziemi i jej zasobów, środowiska roślin i zwierząt, jak i wobec innych ludzi. Dopóki wszystkie te pokłady potencjałów wydawały się być nieograniczone, pionierskie podejście triumfowało.

Dziś jednak rozwój technologiczny osiągnął taki poziom, że umożliwił eksploatację planety ponad możliwości jej regeneracji. Jeśli prawie 8‑miliardowa populacja będzie dalej powszechnie stosowała strategię podboju i dominacji (mając do dyspozycji dostępne już dziś technologie), to naszą planetę czeka zapaść, a ludzkość – zagłada.

Aby przetrwać, musimy zmienić filozofię rozwoju i zaakceptować naszą współzależność. Poszerzyć naszą tożsamość zarówno o perspektywę innych ludzi, jak i o wrażliwość na Ziemię, jej zasoby i przyrodę.

Od zarania dziejów logika rozwoju cywilizacji ludzkiej opiera się na paradygmacie podboju i dominacji. Stosując go dalej, naszą planetę czeka zapaść, a ludzkość – zagłada. Aby przetrwać, musimy poszerzyć naszą tożsamość zarówno o perspektywę innych ludzi, jak i o wrażliwość na Ziemię, jej zasoby i przyrodę.

Europa – szansa na przełom

Na poziomie publicznym Europejski Zielony Ład jest chyba pierwszą poważną próbą zmierzenia się z wyzwaniem zaburzonych relacji: człowiek – środowisko naturalne, na tak znaczącą skalę. Komisja Europejska – przy poparciu większości państw UE – jest zdeterminowana, by wykuć nowy paradygmat rozwoju, przekształcający tę kolebkę cywilizacji ludzkiej i wciąż jeden z głównych ośrodków globalnego rozwoju gospodarczego, w przestrzeń neutralną klimatycznie i środowiskowo. Wszyscy kluczowi europejscy gracze wyrazili swoje pełne poparcie i trwałe zaangażowanie w jego wdrożenie, a pandemia COVID‑19 wręcz wzmocniła chęć porzucenia tego, co było i budowy czegoś nowego – lepszego.

Polska – w szpicy czy w ogonie?

Polska po 1989 r. dokonała niespotykanej na skalę światową transformacji kraju postkomunistycznego, awansując do grona państw wysoko rozwiniętych. Czy i tym razem staniemy w awangardzie cywilizacyjnej transformacji? Czy też będziemy ciągnąć się w ogonie rozwiniętego świata, stosując taktykę ciągłego blokowania i odwlekania zmian?

Wydaje się, że jako obywatele jesteśmy gotowi na dokonanie skoku naprzód – na podjęcie wzmożonego wysiłku kolejnej cywilizacyjnej transformacji. Za dobrą monetę można choćby wziąć fakt, iż w 2020 r. – z własnej kieszeni – wydaliśmy 5 mld zł na przydomową fotowoltaikę. To praktycznie tyle, ile w tym samym czasie na wszystkie inwestycje w moce wytwórcze przeznaczyły największe polskie koncerny energetyczne razem wzięte. Nam – obywatelom wystarczy stworzyć dobre ramy, a sami rzucamy się do przeprowadzenia zmian. Tkwią w nas potężne zasoby indywidualnej przedsiębiorczości – zdolności do praktycznego działania. Wyjątkowo dobrze pasujemy do idei prosumentyzmu.

Wyzwanie zbiorowego zorganizowania się

Od lat naszą, polską największą bolączką jest słaba zdolność do zbiorowego zorganizowania się. Tak, by suma naszych pojedynczych wysiłków nie znosiła się, lecz wzajemnie wzmacniała. Tymczasem zielona transformacja, ale także cyfryzacja, starzenie się społeczeństwa, budowa spójności społecznej czy potrzeba zapewnienia bezpieczeństwa zdrowotnego – wymagają od nas właśnie zdolności do myślenia i działania zbiorowego.

Zielona transformacja, ale także cyfryzacja, starzenie się społeczeństwa, budowa spójności społecznej czy potrzeba zapewnienia bezpieczeństwa zdrowotnego – wymagają od nas zdolności do myślenia i działania zbiorowego.

Sprostanie wyzwaniom ekologiczno­‑klimatycznym i budowa Zielonego Ładu nie obejdą się bez działań zarówno ręki publicznej, jak i prywatnej. By dokonać tej wielkiej zmiany społeczno­‑gospodarczej potrzebne są zarówno odpowiednie regulacje i bodźce ekonomiczne, jak i powszechna zmiana świadomości, sposobu myślenia i masowych zachowań.

Kluczowa rola samorządów

Na jakim szczeblu szansa na integrowanie różnych polityk publicznych (horyzontalność) oraz sprzężenie ich z oddolną energią i działaniami samych obywateli jest największa? Wydaje się, że odpowiedź jest klarowna – to poziom lokalny i regionalny.

To na poziomie lokalnym i regionalnym szansa na integrowanie różnych polityk publicznych oraz sprzężenie ich z oddolną energią i działaniami samych obywateli jest największa.

To samorządy mają więc w tym kontekście kluczową rolę do odegrania. To właśnie tu, w miejscach naszego zamieszkania, pracy i wypoczynku, dominuje myślenie praktyczne i gospodarskie, co od lat widać nie tylko w strategiach, lecz przede wszystkim – w konkretnych działaniach. Kultura kooperacji, współdziałania i współrozwoju w dużym stopniu już się wytworzyła (szczególnie u nas, na Pomorzu), jest na czym dalej budować. Nie ma też strachu przed patrzeniem w przyszłość z otwartą przyłbicą oraz stawianiem na modernizację w najnowocześniejszym wydaniu.

Dziejowa szansa

30 lat skutecznej transformacji to nasze wielkie dokonanie, ale zarazem i zobowiązanie. W wymiarze indywidualnym osiągnęliśmy już wiele, ale to jedynie połowa sukcesu. Czy przez kolejne 30 lat uda nam się „wygrać” również wymiar zbiorowy?

Globalna zmiana paradygmatu funkcjonowania i pozycja Europy, która może stać się katalizatorem transformacji obejmującej całą naszą planetę, dają nam dziś dziejową szansę. Czy ponownie – w sposób oddolny – uda nam się pchnąć Polskę na lepsze tory?

 

Artykuł ukazał się w regionalnym thinkletterze „Idee dla Pomorza” nr 3/2020. Kompletne wydanie w postaci pliku pdf można pobrać tutaj.

Skip to content