ChatGPT to nie Skynet

…czyli dlaczego twierdzę, że nie jesteśmy u progu wojny z maszynami

Wszyscy już pisali o ChatGPT. Więc i ja muszę? No, nie musiałbym, gdyby nie całe akapity pełne nieporozumień i wpisy najeżone pomyłkami. Gdyby nie listy prognoz, które nie mogą się sprawdzić i inne listy tych oczywistych, wręcz banalnych. A na szczycie, niczym wisienka na torcie, ludzie z branży i spoza niej, którzy nie wiedzą, jak to wszystko rozplątać i wydobyć się z gmatwaniny bełkotu.

Dlatego podzieliłem mój tekst na dwie części. W pierwszej wyjaśnię, czym jest ChatGPT (i czym nie jest). W drugiej zajmę się tym, co z tego wynika. Może być? To w drogę.

Część 1.

ChatGPT to nie sztuczna inteligencja

ChatGPT to nie AI. Tak, powtórzyłem zdanie z nagłówka. I powtórzę jeszcze raz, jeśli ktoś nie zrozumiał. ChatGPT to nie jest AI. Dlaczego więc niektórzy mówią, że jest inaczej?

Może dlatego:

chat.openai.com/chat

Adres URL publicznie dostępnej aplikacji ChatGPT zawiera frazę „OpenAI”, ponieważ jest częścią projektu o tej nazwie. OpenAI, jak wyjaśnia nam ChatGPT, jest non-profitową organizacją z San Francisco założoną w 2015 roku w celu „stworzenia bezpiecznego i otwartego środowiska dla rozwoju sztucznej inteligencji”.

Zatem OpenAI to nie sztuczna inteligencja tylko organizacja, która dąży do jej stworzenia.

To oczywiście nie rozstrzyga kwestii, czym jest (nie jest) sam ChatGPT. Natomiast wyjaśnia, w jaki sposób narasta nieporozumienie związane z tą sprawą. W końcu „AI” przewija się w niemal każdym materiale na ten temat i nieodparcie się z nim kojarzy.

Zresztą, nie oszukujmy się. Firmom promującym to oraz podobne rozwiązania zależy na tym, byśmy myśleli, że mamy do czynienia z AI. Jest tak na polu narzędzi przetwarzających tekst, jak i przetwarzających obraz. A może myślicie, że samodzielne samochody Google’a to sztuczna inteligencja? Nie, to tylko oprogramowanie, które potrafi wykonywać jedną czynność (przemieszczać pojazd między punktami w przestrzeni). Mam nadzieję, że nie czujecie się rozczarowani.

Sam ChatGPT także sztuczną inteligencją nie jest i takowa jeszcze w ogóle nie powstała. Czym zatem jest? Jest to model językowy symulujący porozumiewanie się za pomocą tekstu pisanego, wytrenowany z użyciem uczenia maszynowego.

Z perspektywy użytkownika przypomina to chatbota. Komputer, który pisze do nas z sensem. Tylko, że ten robi to lepiej niż wsparcie klienta w sklepie internetowym

No, ale w sumie jak to działa, że on działa?

Aleksander Killman: Czym sztuczna inteligencja różni się od uczenia maszynowego?ChatGPT: Sztuczna inteligencja (AI) i uczenie maszynowe (ML) są często używane jako synonimy, jednak istnieją pomiędzy nimi pewne różnice.
Fragment rozmowy z ChatGPT

ChatGPT a uczenie maszynowe (machine learning)

Oto, co odpowiada ChatGPT zapytany o uczenie maszynowe: „Uczenie maszynowe jest jednym z kluczowych komponentów sztucznej inteligencji, ale jednocześnie jest osobnym pojęciem. Uczenie maszynowe polega na tworzeniu algorytmów, które umożliwiają maszynie uczenie się z danych i automatyczne poprawianie swoich działań na ich podstawie. Dzięki temu systemy uczenia maszynowego są w stanie uczyć się i poprawiać swoje działanie bez bezpośredniego programowania przez inżyniera”.

Ujmę to bardziej po ludzku (bo ChatGPT robi to na razie tak sobie). Programiści z OpenAI stworzyli algorytm, który na podstawie „miliardów zdań z różnych źródeł, w tym artykułów, forów internetowych, książek i innych tekstów” (jak tłumaczy) „nauczył się” odpowiadać na to, co napiszemy na klawiaturze.

Nauka ta polega na rozpoznaniu, jakie zależności łączą tekst, konkretne zdania, akapity itd. Nie oszukujmy się, to jest bardzo dużo analizy – my w większości robimy to nieświadomie przez pierwszych parę lat naszego życia. ChatGPT robił to za pomocą złożonej matematyki.

(Brzmi dumnie, ale to jest praca, którą większość z nas wykonuje nieświadomie przed trzecim rokiem życia z przerwami na jedzenie, spanie, płacz i raczkowanie).

Abstrakcyjny obrazek zawierający linie nieczytelnego pisma zlewające się w sieć.

Tu widać pierwszą różnicę między „ludzką inteligencją” a tym, co upichcili ludzie z OpenAI. Podczas, gdy człowiek rozumie, co mówi (postanawia, co chce powiedzieć, a potem dobiera słowa), ChatGPT dobiera statystycznie najlepiej dopasowaną odpowiedź na podstawie danych historycznych. Tak, historycznych, ponieważ analiza treści na bieżąco a rozbudowa modelu to dwie różne operacje.

ChatGPT jest więc algorytmem bardzo trafnie losującym odpowiedzi na nasze pytania (i inne wypowiedzi) z olbrzymiego zbioru treści pochodzących z internetu. Nie cytuje po prostu innych, ponieważ treści te są zbyt mocno przetworzone i pokawałkowane, by uznać je za cytaty. Chyba, że zażyczymy sobie inaczej. Mało tego, jak ładnie poprosimy, na podstawie swojego zasobu słów i ich znaczeń potrafi tworzyć neologizmy. Jako przykład podał mi „radoszenie” (nie wiem, co to znaczy).

Dlaczego mylimy ChatGPT z SI (AI)?

(Oczywiście – pomijając skutki marketingowych zabiegów jego twórców).

To proste. ChatGPT odpowiada mądrze i składnie. Czy znacie kogoś, kto tak robi, a nie jest inteligentny? Ja też nie. (Oczywiście tak było dotąd).

Między sobą porozumiewamy się językiem. Kiedyś mówiliśmy, ale ostatnimi czasy język pisany dominuje w komunikacji (można cały dzień „rozmawiać” z ludźmi w sieci, nie otwierając ust). Dlatego łatwo przychodzi nam brać za „swojaka” algorytm, który naśladuje to podstawowe międzyludzkie medium. Oczywiście naśladowanie mowy jest już za zakrętem (co to za trudność – podłączyć syntezator mowy do ChatGPT?), trudniej będzie z komunikacją pozawerbalną, ale mamy 2023 – wiele z nas i tak żyje przed ekranem.

Abstrakcja sieci oplatającej nieforemny kształt zbliżony do mózgu, ale w kolorze błękitnym.

Zatem naszą słabością (jeśli tak ją określimy) jest branie zdolności do komunikacji za przejaw inteligencji. I stąd natychmiastowe wrażenie, że rozmawiamy z „kimś myślącym” – podczas gdy ChatGPT nie formułuje myśli, tylko kalkuluje prawdopodobieństwo oczekiwanej przez nas odpowiedzi. A potem tę odpowiedź wpisuje w oknie czatu.

Tak, to skomplikowana operacja i bardzo zaawansowana technologia – ale to nie jest (sztuczna) inteligencja. Test Turinga został źle sformułowany…

Część 2.

Czym jest ChatGPT i co z tego?

Podsumuję zatem: ChatGPT to rodzaj chatbota, algorytmu reagującego na nasze pisane wypowiedzi, który w oparciu o wyuczony maszynowo mechanizm generuje zaskakująco trafne odpowiedzi. Ponieważ potrafi odpowiadać całymi akapitami a nawet zestawami akapitów, można poprosić go o sformułowanie dłuższej wypowiedzi na zadany temat (są ograniczenia).

Zabrzmi to brzydko, ale ChatGPT to taki „generator tekstu”, który umie symulować interakcje z ludźmi. Do czego taki algorytm może się przydać ludziom (nam), a do czego się nie nadaje? Jak słychać i widać w sieci – ludzie mają najróżniejsze poglądy na to. Jedne trafne, inne zupełnie chybione.

Abstrakcyjna wirtualna sieć połączeń w przestrzeni.

Wiemy już, że ChatGPT nie zajmie się rozwiązywaniem problemów ludzkości – bo nie jest inteligentny. Może nas bawić, ale musimy mu powiedzieć, jak – sam nie wyjdzie z inicjatywą (nie zagada, nie odezwie się pierwszy). Umie jedynie reagować i tylko na to, co mu powiemy w danej rozmowie (ale również to jest ograniczone do kilku tysięcy słów w ramach rozmowy – pytałem o to i testowałem). Nie pozna nas osobiście, nie zrozumie naszej specyficznej sytuacji, nie zapyta „Co u Zośki?”

Nie sądzę, że liczyliście na którąś z tych rzeczy, ale warto je mieć za sobą.

ChatGPT jako źródło informacji

Co ChatGPT robi świetnie? Syntetyzuje wiedzę powszechnie dostępną. Na przykład miałem z „nim” kilka rozmów na temat, powiedzmy, porad domowych. W pierwszej sprawie dostarczył mi wiele cennych informacji, których jeszcze nie miałem możliwości wcielić w życie, ale brzmią bardzo sensownie. W drugiej pomylił się straszliwie – konkretnie doradził mi niewłaściwą długość sznurówek (potrzebowałem 120cm, upierał się, że 50cm wystarczy).

Zatem, gdy pytaliście wyszukiwarki Google „jakie kwiaty kwitną w kwietniu w polskiej strefie klimatycznej”, trafialiście pewnie na coś w rodzaju Wikipedii i tam była odpowiedź, do której trzeba było się jeszcze „dokopać”. ChatGPT po prostu takiej odpowiedzi udzieli. A czemu zawalił sprawę sznurówek, to nie wiem, naprawdę…

ChatGPT „wie” bardzo dużo o literaturze, filmie, teoriach naukowych, programowaniu, geografii świata… Ale to nie znaczy, że będziemy go pytać, gdzie jechać na wakacje albo kto jest lepszym aktorem. W żadnym wypadku nie pytałbym go też, czy mam objawy ospy wietrznej. Jego „wiedza” to skondensowane informacje z internetu – do tego jedynie te sprzed kilku lat. Nie będzie znał repertuaru waszego lokalnego kina ani znał rozkładu autobusów (od tego macie „stare” wyszukiwarki). No i miewa wpadki.

Abstrakcyjna kopuła z tysięcy połączonych nici.

ChatGPT jako autor tekstów

Oczywiście musiałem ten wątek poruszyć, bo przecież niektórzy już odtrąbili, że „sztuczna inteligencja wygryzie pisarzy” (i grafików ponoć też). Zatem uspokajam: po pierwsze to nie jest sztuczna inteligencja, po drugie być może w jakiejś przyszłości wspomoże pisarzy, ale nie wygryzie.

Żeby nas (pisarzy) wygryźć, trzeba by przede wszystkim tworzyć. Oczywiście, odpowiednio złożone przetwarzanie niewiele różni się od tworzenia (ale jednak się różni), więc można z powodzeniem argumentować, że do napisania kolejnego wtórnego romansu czy thrillera nie trzeba być bardzo twórczym. Być może – trudno mi powiedzieć, bo jak większość ludzi nie rozróżniam świadomie procesów twórczych zachodzących w mojej głowie.

Po drugie jednak – aby coś napisać (i wygryźć pisarzy) trzeba chcieć coś napisać. Coś konkretnego, nie po prostu „coś”. Postawiłem sobie za cel, aby nakłonić ChatGPT do napisania czegoś za mnie (powiedzmy, że to był egzamin na umiejętność „wygryzienia mnie”). Wprawdzie to ja chciałem (więc już nie jednego ale dwojga było trzeba do tego zadania, bo bez mojego chcenia by sobie nie poradził), ale pomińmy na razie ten składnik.

Udało się. I była to straszna porażka.

Abstrakcyjna sieć przypominająca koronę drzewa.

Mam mianowicie pomysł na opowiadanie, ale nie miałem czasu i ochoty usiąść i spisać tego. Skorzystałem więc z okazji i mówię (poniższe cytaty są autentyczne i nie redagowane):

„Możesz mi pomóc napisać opowiadanie?”

Tak, oczywiście! – odpowiada chatbot. – Proszę o więcej szczegółów na temat opowiadania, takich jak długość, gatunek, postaci itp. Chętnie pomogę.”

„A czy mogę ci opisać jedną scenę, a potem drugą, trzecią i kolejne?” – pytam, bo chcę być sprytny i zobaczyć, jak się akcja rozwinie (jakbym mu opisał całość, to czym by się to różniło od napisania jej?).

Tak, oczywiście! – odpowiada monotonnym entuzjazmem. – Opisz każdą scenę, a ja będę je łączyć w spójne opowiadanie.”

„Dobra nasza! – myślę sobie (tego mu nie napisałem). – Podrzucę mu wszystko scena po scenie i on z tego ulepi spójną całość. Jak tak dalej pójdzie, to będę co tydzień jedno opowiadanie tworzył, hulaj duszo!”

Rzecz jasna, właśnie wtedy zaczęły się schody. Całość rozmowy przytoczę osobno, tutaj podam tylko skrót. Otóż nieopatrznie napisałem:

„Scena 1… (tu następował krótki opis sceny)”, a nasz ChatGPT zamiast ją rozwinąć, dopisał sceny 2, 3 i 4… Biorąc pod uwagę poziom ogólności mojego opisu, było to mało zajmujące (ot, na stronę A4 całość by weszła).

Wyjaśniłem „mu” jego pomyłkę. Przeprosił (zawsze przeprasza, jest bardzo grzeczny) i tym razem napisał pierwszą scenę zgodnie z planem. Za krótką jednak, a do tego… z puentą. Tak: z ładną, bezpieczną, sentymentalną puentą rodem z wypracowania szóstkowego ucznia szkoły średniej (ale takiego grzecznego).

Tylko na kij mi puenta, jak to dopiero początek opowiadania? No, i oczywiście miałem w głowie całkiem inne zakończenie, mniej bezpieczne. Takie z pazurem, wiecie. Takie, po jakim się długo zasypia, a nie stawia szóstkę i otwiera kolejny zeszyt.

Zrobiłem jeszcze kilka podejść (minęła godzina, sam dawno napisałbym już tę scenę), cierpliwie tłumaczyłem. Powoływałem się na literaturę i film. Okazało się, że ChatGPT świetnie je zna i umie nawet coś niecoś uszczknąć ze stylu, ale… nie uczy się.

Że jak? A uczenie maszynowe? 

No, więc moi mili, to nie tak działa. Uczenie modelu, strojenie modelu i korzystanie z modelu to są osobne (oddzielne) procesy. Uczenie i strojenie modelu przeprowadzili ludzie z OpenAI – zrobili to świetnie, ale model ten nie stał się żadną samodzielną inteligencją. W momencie, gdy panowie i panie programiści odłożyli narzędzia i wytarli ręce z cyfrowego smaru, proces uczenia dobiegł końca. Jeśli powiem ChatGPT „tak się nie pisze”, on przeprosi i się poprawi. A niewiele później znowu napisze źle. Jest elokwentny, ale… głupi.

Wir kolorów jakby z tkaniny.

ChatGPT nie rozumie postaci

Lepsze kwiatki zaczęły wychodzić w kontekście narracji i prowadzenia postaci. W mojej scenie znaczenie mają trzy kobiety z trzech różnych pokoleń. Babka (która nie żyje), wnuczka (narratorka) i prawnuczka (słuchaczka). Dla wygody zamienię je na (odpowiednio): Prababcię, Matkę i Córkę. Matka opowiada Córce o swoim przeżyciu z Prababcią. Prościzna.

Nie dla ChatGPT (uwierzcie, nie zrobiłem tego złośliwie, taką historię mam w głowie). Czasami udawało mu się „wczuć” w tę trzypokoleniową sytuację, ale czasem chrzanił kto jest kim. W dodatku jak „mu” wyjaśniłem, że Córka-słuchaczka ma około szesnastu lat, w dialogu brzmiała albo jak dorosła, albo jak… małe dziecko.

Ot, złośliwie dobrana próbka „twórczości” ChatGPT (podejście 4):

„Droga Natalko, gdy mówię ci o naszej wspólnej podróży z babcią, pewnie jeszcze pamiętasz, jak byłaś mała i jak często opowiadała ci historie o swoim dzieciństwie na Białorusi. To właśnie tam, w tamtej wsi, babcia chciała nas prowadzić, aby odnaleźć swoje korzenie.”

Styl jest tu tragiczny, nie zawsze tak się zdarzało. Były i lepsze zdania:

„Karolina, matka Natalki, patrząc na swoją córkę, wspominała tamte dni, gdy sama jako młoda dziewczyna wyruszała w podróż z babcią.”

No, ok – może nie jest to szczególnie przyjemne do czytania, ale akceptowalne. Oczywiście ChatGPT nie zna się też na ekspozycji i wszystkie fakty wywalił do pierwszego zdania.

Czasem jednak robił dokładnie odwrotnie, jak w tym rozpoczęciu:

„Karolina, usiadłszy wygodnie w fotelu, westchnęła głęboko. Spojrzała na Natalkę i uśmiechnęła się, jakby chciała powiedzieć „Wiesz, czego cię dziś nauczę?”.”

A potem znowu tak:

„Karolina, usiadłszy wygodnie w fotelu, opowiedziała swojej córce Natali o wyprawie, jaką odbyła 10 lat wcześniej ze swoją babcią. Babcia, która pochodziła z Białorusi, zaproponowała Karolinie, aby pojechały razem do wsi, w której babcia spędziła swoje dzieciństwo.”

Szybko zorientowałem się, że ChatGPT nawet imiona myli (przy kolejnych podejściach Natalia była Natalie albo Marysią), a co dopiero marzyć o zachowaniu jakiejś spójności tego, kim poszczególne osoby są i co przeżywają. Umiejętność układania zdań, tworzenia spójnych akapitów i narracji ma się – jak widać – nijak do tworzenia świata i zamieszkujących go bohaterów.

Technicznie wyjaśnienie tego jest banalne: do pisania o zmyślonych bohaterach trzeba mieć o nich wiedzę. Jeśli bohater jest zmyślony przez autora, to ewoluuje w jego głowie. Bywa niespójny, ale tekst się poprawia i „dorównuje” nieuformowanego bohatera ze sceny 1. do już ukształtowanej wizji ze sceny 50. ChatGPT nie oferuje nam dość pamięci operacyjnej, żeby pomieścić tak złożony koncept jak cały fikcyjny człowiek (a co dopiero grupa ludzi). Nie mieści nawet koncepcji relacji między trzema kobietami w ramach jednej rozmowy.

Ale zaraz-zaraz. Czy to nie znaczy, że ChatGPT potrzebuje po prostu usprawnień? Jasne, ale to nie takie proste. Ilu usprawnień potrzeba, by maszyna składająca wypowiedzi otagowane jako „w stylu Kopciuszka” zaczęła rozumieć, kim jest Kopciuszek? A teraz podmieńcie sobie Kopciuszka na Benedykta Gierosławskiego1 i zrozumiecie, czemu w ChatGPT nie widzę zagrożenia dla pisarzy. To trochę jakbym bał się narzędzia autokorekty.

Abstrakcja kształtów ułożona w formę rozety.

Więc skąd ten szum?

Pewnie część z was słyszała dramatyczne opowieści o tym, jak ChatGPT zdał maturę albo egzamin MBA. Matura niełatwa sprawa, egzamin MBA zresztą pewnie też (aczkolwiek nie wiem, nie widziałem). Ale mimo wszystko są to zamknięte „przestrzenie”, w których ChatGPT czuje się świetnie (i niektórzy ludzie też, ale nie wszyscy).

ChatGPT umie przeanalizować pytania pod kątem treści zebranych w procesie uczenia i zaprognozować najtrafniejsze odpowiedzi. Tylko tyle.

Więc nie liczcie na to, że poprowadzi za was firmę. Albo wniesie cokolwiek do rozumienia literatury. Nie może, ponieważ nie rozumie, tylko symuluje wcześniejsze reakcje ludzi. Symuluje odpowiedzi na pytania na podstawie innych odpowiedzi. Gdyby dostał bazę danych z 90% błędnych odpowiedzi, pewnie w 90% przypadków też odpowiadałby źle.

Hm… może to wyjaśnienie zagadki ze sznurówkami?

W każdym razie zdawalność egzaminów przez chatbota nie świadczy za chatbotem ale przeciw egzaminom. Po prostu. Jeśli sprawdzamy wiedzę, to encyklopedia wygrywa w przedbiegach z wieloma ludźmi. Czy ktoś pamięta krzyki i płacze, że uczniowie na teście z historii wyguglali sobie odpowiedzi na pytania? To przecież zwykłe ściąganie, tylko takie bardziej „smart”. Chyba nikt normalny nie pomyślał, że skoro Google „wie”, kiedy miała miejsce bitwa pod Grunwaldem i kto ją wygrał, to znaczy, że Google jest „inteligentne”?

Tutaj mamy to samo, tylko zostaliśmy bardziej zaskoczeni. Oczywiście – ChatGPT nadal jest ciekawą, potencjalnie bardzo przydatną technologią, która wiele zmieni. Wiele, ale nie wszystko. I nie przejmie władzy nad światem, możecie spać spokojnie.


PS. Grafiki do tego tekstu wygenerowałem za pomocą BlueWillowAI, narzędzia korzystającego z kilku silników przetwarzania tekstu w obraz (jak np. StableDiffusion) i dostępnego za darmo. BlueWillowAI to także nie jest sztuczna inteligencja.

Przypisy

  1. Główny bohater „Lodu” – opus magnum Jacka Dukaja.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.