Niewątpliwie generatywne AI, a więc modele LLM, transformery i bazujące na nich narzędzia pozwalające na rozmowę z AI za pomocą języka naturalnego, są dziś bardziej sexy, niż cała reszta algorytmów AI razem wzięta. Z pewnością można więc mówić o przełomie, wręcz rewolucji – i to nie tylko w jakości algorytmów, ale też w postrzeganiu roli AI w społeczeństwie.
O ile bowiem dotychczas, dla przeciętnego obywatela AI była ciekawostką ze świata IT, o tyle dzisiaj szeroko mówi się o AI i ChatGPT na całym świecie, m.in. w kontekście możliwej utraty pracy.
Ale czy można postawić znak równości pomiędzy ChatGPT, czy nawet koncepcją LLM, a AI jako całością?
Oczywiście nie. Różne klasy algorytmów, które zbiorczo określamy jako AI, są rozwijane już od kilkudziesięciu lat. Przykładowo:
- Programy OCR (do rozpoznawania tekstu w obrazie) już w latach 90-tych używały algorytmów opartych na sieciach neuronowych do poprawy skuteczności rozpoznawania niewyraźnych i zniekształconych znaków.
- Odkurzacze Roomba co najmniej od 2016 w trakcie pracy uczą się układu pomieszczeń w domu, aby kolejne czyszczenia były coraz bardziej efektywne.
- W 2017 pojawiły się pierwsze filmy deepfake, oparte na sieciach GAN.
- Apple począwszy od iOS 10 (wydanego w 2016) oferuje usługę FaceID, służącą do odblokowywania telefonu za pomocą twarzy, opartą na algorytmie Viola-Jones (czyli tzw. deep learningu).
- Różne banki i instytucje finansowe wykorzystują technologie big data i różne klasy algorytmów AI do coraz lepszego profilowania klientów – w Polsce jako pierwszy przyznał się do tego Alior Bank na początku 2013, ale choćby autor tych słów osobiście implementował scoring kredytowy klientów dla jednego ze znanych portali aukcyjnych w roku 2012.
- Nagroda Nobla w dziedzinie chemii w 2013 roku została przyznana właśnie za eksperymenty z machine learningiem do rozwoju nowych leków – same eksperymenty były oczywiście prowadzone przez wiele wcześniejszych lat i już w 2008 dawały obiecujące naukowo wyniki. Obecnie w samych tylko Chinach, rozwojem AI tylko na potrzeby medycyny zajmuje się przynajmniej kilkanaście tysięcy naukowców.
Czy ChatGPT może bardziej pomóc, czy zaszkodzić rozwojowi AI?
Nie ulega wątpliwości, że ChatGPT jest usługą przełomową z przynajmniej dwóch punktów widzenia:
- Przeciętnego użytkownika, który wreszcie nie musi być naukowcem ani programistą, aby porozumiewać się z jakimś algorytmem za pomocą odpowiednio przygotowanych zbiorów danych, ale może użyć po prostu języka naturalnego – i to nawet niekoniecznie angielskiego.
- Łatwości wdrażania takiej formy AI w dziesiątkach albo nawet setkach kolejnych branż – gdzie nie trzeba już zatrudniać zespołu data science do analizy danych posiadanych przez firmę i produkcji odpowiednich interfejsów – gdyż dane do ChatGPT można wkleić (w najprostszym przypadku) wprost z Excela.
Niestety ChatGPT ma też poważną wadę, która rzadko bywa wybaczana, gdy dany temat zrobi się głośny politycznie: niedojrzałość, która w jego przypadku objawia się:
- niepełną wiedzą (do 2021)
- bardzo ograniczonymi możliwościami jej uzupełniania na bieżąco
- halucynacjami
- cenzurą bardzo wielu tematów uznanych przez OpenAI za potencjalnie niebezpieczne lub niewygodne
- możliwością przypadkowego ujawnienia poufnych danych (osobowych i nie tylko)
- wątpliwościami odnośnie praw autorskich do generowanych treści
W efekcie już teraz coraz głośniej mówi się o niskiej dojrzałości tego typu rozwiązań i konieczności “zrobienia z nimi czegoś” – analogicznie jak 15-20 lat temu mówiono o niedojrzałości mechanizmów klonowania żywych organizmów w kontekście owcy Dolly i obaw o klonowanie człowieka. Paradoksalnie, rozwiązania, które w efekcie wprowadzono, uniemożliwiają dalsze legalne prace nad poprawą tej dojrzałości.
W przypadku ChatGPT może być jeszcze gorzej: o ile cała koncepcja modeli LLM faktycznie jest mało dojrzała, a do tego zwyczajnie droga w utrzymaniu, o tyle inne klasy algorytmów, również potocznie określane jako AI (w szczególności algorytmy do analizy i klasyfikacji różnego rodzaju treści) zyskały już relatywnie wysoki stopień dojrzałości, niezawodności i bezpieczeństwa działania.
Zaś ewentualna delegalizacja (zwana dla niepoznaki “regulacją”) AI, o jakiej się coraz bardziej otwarcie mówi, może dotknąć nie tylko ChatGPT czy OpenAI, ale też wszystkich innych algorytmów AI. A tym samym cofnąć wiele branż do poziomu rozwoju z lat 90-tych.
Co możemy i powinniśmy robić jako obywatele?
Przede wszystkim, unikać wrzucania różnych klas algorytmów do jednego worka zwanego AI lub sztuczną inteligencją. Co bowiem łączy algorytmy do generowania filmów deepfake z algorytmami analizującymi wiarygodność kredytobiorców, poza tym, że jedne i drugie “pod spodem” wykonują bardzo duże ilości prostych operacji na macierzach i wykorzystują do tego układy graficzne Nvidii?
Przecież dokładnie to samo można powiedzieć choćby o grach komputerowych. A tych się już nie boimy, prawda?
praca
W ostatnich miesiącach dużo mówi się o zastępowaniu niektórych stanowisk przez ChatGPT – i jest to prawdą, ale niestety bardzo wyolbrzymianą. Najczęściej ze strachu.
Prawda jest taka, że niezależnie od branży i zawodu, różne algorytmy AI będą w stanie coraz lepiej zastępować pracowników wykonujących proste prace – ale nadal potrzebni będą ludzie:
- do weryfikacji i ewentualnej korekty wyników działania AI
- do ręcznego wklejania tych wyników do systemów produkcyjnych używanych przez firmę (a więc posiadający dostępy wszędzie tam, gdzie boimy się przekazać je bezpośrednio AI)
A przede wszystkim, nadal potrzebni będą specjaliści i menedżerowie posiadający w głowie “big picture” tego:
- co firma robi, dlaczego i dla kogo
- za ile – oraz jak to się ma to cash flow, rentowności i innych wskaźników finansowych
- jak działają poszczególne działy i procesy – od ogółu do szczegółu
- co i jak można w przyszłości usprawnić
- jak to się ma do otoczenia prawnego, technologicznego i rynkowego
- co robi konkurencja
Wszystko to powoduje, że AI w perspektywie kolejnych 10-15 lat, w wariancie najbardziej optymistycznym, zabierze w niektórych branżach 75-85% stanowisk – ale w wielu innych raptem 30-50%. A bać się powinni co najwyżej ci, którzy dopiero wchodzą na rynek pracy, albo są po prostu słabi w tym co robią.
korzyści
Pomimo pewnych punktowych zagrożeń, nie należy zapominać o korzyściach, jakie już dzisiaj odnosimy dzięki AI, np.:
- dzięki uczącym się algorytmom scoringowym różne usługi finansowe są szczelniejsze i uczciwsze – dużo trudniej jest np. wyłudzić kredyt
- kilkadziesiąt nowych leków na nowotwory, stworzonych wyłącznie dzięki AI jest już w fazie testów klinicznych
- setki różnych usług, jakich używamy na co dzień, dzięki AI działa dużo sprawniej – np. iPhone możemy odblokować twarzą po prostu na niego patrząc, odkurzacz Roomba sprawnie sprząta nasz dom itd.
Co możemy robić jako pracownicy?
Przede wszystkim zdać sobie sprawę, że osobista duża wydajność i dobre dopasowanie do danego stanowiska mogą wystarczyć w perspektywie najbliższych kilku lat – ale w dłuższej perspektywie każdy może stać się underperformerem i po prostu kandydatem do zastąpienia przez AI. Wydajność już nie jest rozwiązaniem.
Jako pracownik, powinieneś się skupić na identyfikacji obszarów, jakich w Twojej branży nie da się przekazać AI np. ze względu na prymitywny strach, brak zaufania, kwestie etyczne, czy po prostu regulacje prawne (RODO lub przepisy branżowe). Przede wszystkim będą to obszary związane z:
- posiadaniem kluczowej i możliwie rozległej wiedzy nt. działania firmy
- posiadaniem dostępów do różnych systemów używanych przez firmę – przede wszystkim systemów produkcyjnych (pamiętaj jednak, że same systemy mogą i będą się zmieniać, kluczowe więc jest nie tyle posiadanie konkretnych dostępów, ile pełnienie ról organizacyjnych, z którymi wiążą się te dostępy)
Mówiąc wprost: im większe silosy kompetencyjne tworzysz, tym trudniejsze i dłuższe będą próby zastąpienia Cię nie tylko przez AI, ale też przez innych pracowników. Z drugiej strony, jeśli tworzysz taki silos oddolnie, będąc szeregowym pracownikiem, istnieje duże ryzyko, że menedżerowie będą Ci to chcieli utrudnić. Silosy są bowiem rozwiązaniem korzystnym dla pojedynczych pracowników (w szczególności tych słabszych), ale niekorzystnym dla firmy jako całości.
Dlatego powinieneś w tym aspekcie kierować się dyskrecją – jakiekolwiek formy chwalenia się tym, że masz “pomysł na AI”, będą najczęściej przeciwskuteczne, możesz bowiem zostać kandydatem do szybkiego zastąpienia nie tyle przez AI, ile przez bardziej lojalnych wobec firmy pracowników. Zamiast tego powinieneś:
- na co dzień prezentować postawę uczynnego kolegi
- przy różnych okazjach podpowiadać miejsca, procesy i stanowiska, na których można bardziej sformalizować pracę, a następnie wprowadzić tam ChatGPT – ważne, aby były one tak dobrane, aby nie zagroziło to Twojej własnej pracy
- staraj się być zapraszany na różne firmowe eventy wymiany wiedzy – i staraj się faktycznie tą wiedzę wymieniać, aby rozumieć, co dzieje się w firmie
- tam gdzie się da, oferuj prowadzenie prezentacji o Twoim dziale i jego unikalnej roli w firmie – skupiaj się nie na pracy operacyjnej, ale na pokazaniu tych aspektów pracy, które “przypadkiem” są akurat najtrudniejsze do przejęcia przez AI
Co dodatkowo możemy zrobić jako politycy?
Absolutnie najważniejsze, to nie dać się ponieść emocjom i pokusom pozornie łatwych rozwiązań postulowanych przez lewicę i populistów.
3 poziomy
Bardziej konkretnie – rozmawiając na tematy związane z AI, powinieneś wyraźnie rozróżniać 3 kolejne poziomy ogólności:
- AI jako całość – tj. ogólna koncepcja tego, że algorytmy mogą się w jakiś sposób uczyć.
- Generatywne AI – a więc modele LLM, transformery i inne wynalazki z dziedziny deep learningu, których celem jest możliwość rozmowy z AI w języku naturalnym.
- Konkretne firmy i ich usługi – np. OpenAI i ChatGPT.
W szczególności jeśli rozmawiamy o potencjalnie szkodliwym wpływie ChatGPT na zatrudnienie, pamiętajmy że ewentualny problem związany jest najczęściej z konkretnymi firmami i usługami, a w najgorszym razie z generatywną AI – i nie należy go rozciągać szerzej niż to koniecznie. Bo “całe AI” to także dziesiątki innych kierunków, które działając bez zastanowienia możemy niechcący “wylać z kąpielą”.
bezpieczeństwo miejsc pracy czy rozwój?
W rozwoju różnych algorytmów AI od wielu lat przodują Chiny, a w następnej kolejności USA:
Dla polskich polityków powinno to oznaczać dokładnie tyle, że mogą pomóc polskim firmom specjalizującym się w technologiach AI – lub mogą im nie pomagać. Ale w obu przypadkach nie ma to absolutnie żadnego przełożenia na globalne trendy i w żaden sposób nie zatrzyma np. zastępowania stanowisk pracy przez ChatGPT.
Co najwyżej zarobią na tym firmy spoza Polski.
Dlatego też, będąc politykiem, powinieneś przede wszystkim zorientować się, co utrudnia rozwój polskim firmom od AI i co warto zmienić w polskim prawie, aby pomóc im budować usługi mogące nawiązywać równorzędną konkurencję z firmami i usługami z USA.