Czekacie na ogólną sztuczną inteligencję (AGI, ang. artificial general intelligence)? No to jeszcze sobie poczekacie…

Prof. Krzysztof Meissner lubi powtarzać, że dwie największe teorie fizyczne XX wieku, czyli ogólna teoria względności i mechanika kwantowa, „nie widzą” siebie nawzajem. Ta pierwsza nie jest kwantowa, a ta druga nie obejmuje grawitacji. Odpowiedzią miała być teoria strun, której profesor poświęcił 17 lat pracy naukowej, a z której ostatecznie zrezygnował, gdyż uznał, że nie tędy droga.


W dziedzinie sztucznej inteligencji porównywalnym osiągnięciem byłaby zapewne AGI, o której zrobiło się ostatnio dosyć głośno. Internet zalewają doniesienia i obietnice, że to już, zaraz, tuż za rogiem. Big techy wiele postawiły na tę kartę i stąd zapewne cyniczna manipulacja definicjami. Wszystko jednak wskazuje na to, że AGI nie da się osiągnąć w ramach obecnie dominującego paradygmatu – dużych modeli językowych (LLM) i głębokich sieci neuronowych (DNN). Potrzebujemy czegoś znacznie bardziej szalonego.


A dlaczego z samych dużych modeli językowych nie wypączkuje ogólna sztuczna inteligencja, niezależnie od tego, ile danych i mocy obliczeniowej w to włożymy ani co obieca nam Sam Altman? Doskonale wyjaśnia to François Chollet*. W skrócie: prawdziwa inteligencja wymaga myślenia wolnego (za Kahnemanem), a obecny paradygmat oferuje nam wyłącznie myślenie szybkie. LLM-y to wciąż „tylko” bardzo wysublimowany pattern matching i zapamiętywanie.


Bo czym tak naprawdę jest prompt engineering? Jeśli tworzymy lepsze zapytanie, mamy szansę dostać lepszą odpowiedź, prawda? No cóż, Chollet odwraca to stwierdzenie i mówi, że dla dowolnego LLM-a, dla dowolnego zapytania, które zdaje się działać, istnieje równoważna parafraza tego zapytania, na której model polegnie, a którą człowiek zrozumie bez większego problemu.


Oczywiście modele uodparnia się na takie zabiegi, przypadek po przypadku, zapytanie po zapytaniu. Dziesiątki tysięcy osób dzień po dniu wykonują syzyfową pracę, oznaczając historyczne dane i dotrenowując modele. Nie dajcie się zwieść, mamy tu do czynienia z klasyczną zabawą w kotka i myszkę.


Ale czy to, że duże modele językowe nie doprowadzą nas do ogólnej sztucznej inteligencji, w jakikolwiek sposób im umniejsza? Moim zdaniem nie. Nadal są bardzo potężnym i użytecznym narzędziem. Myślę, że doskonale pasuje tu cytat z Douglasa Adamsa: „Czy nie wystarczy zobaczyć, że ogród jest piękny, trzeba wmawiać sobie, że mieszkają w nim wróżki?”.

 

Aby zrozumieć, jak działa sztuczna inteligencja, poznać możliwe ścieżki rozwoju i poznać jej blaski i cienie, zachęcam Cię do sięgnięcia po moją książkę „Sztuczna inteligencja. O czym myśli, gdy nikt nie patrzy?”. Dobrze widzieć, co szykuje dla nas przyszłość. Wszak kto nie zna swojej przyszłości, nie jest w stanie jej kontrolować.

 

* https://www.youtube.com/watch?v=s7_NlkBwdj8