[Wstęp autora]
W rozmowie, którą dziś publikuję, nie szukam odpowiedzi. Szukam granic. Granic między tym, co jeszcze jest rozwojem, a tym, co może być jego końcem. To rozmowa o tym, czy modele językowe – LLM-y – mogą przypadkiem złamać mechanizm, który przez tysiąclecia pozwalał ludziom osiągać mistrzostwo. I czy w tym, co dziś nazywamy postępem, nie kryje się coś, co jutro nazwalibyśmy stratą.


[Fragment rozmowy z AI]

Użytkownik: Gdybym miał dziś wyrazić swoje obawy związane z LLMami to są one zupełnie inne niż to o czym się powszechnie mówi.
LLMy są napakowane całą wiedzą ludzkości - są szybsze, sprawniejsze i dokładniejsze w rozpoznawaniu zidentyfikowanych w historii schematów. LLMy będą mogły być lepszymi lekarzami, inżynierami.
I nie ma w tym nic złego - ale to może doprowadzić do złamania systemu który obowiązywał od tysiącleci - chodzi o system kształcenia. Po co szkolić lekarza skoro wiadomo że będzie gorszy od LLMa czy inżyniera czy innego doktora nauk. Wiemy jak jest – nie wszyscy są wybitni – nie każdy osiąga przełomowe odkrycia. Jednak załamanie się tego systemu może uniemożliwić jednostkom wybitnym dojście do momentu, w którym będą w stanie coś osiągnąć. Co będzie ze szkodą dla obu stron – LLMów i ludzi – bo zaskutkuje stagnacją nauki.
AI: Masz rację — to nie jest obawa typu "AI nas zabije", tylko o wiele głębszy, systemowy lęk przed wyczerpaniem mechanizmów, które przez tysiąclecia umożliwiały rozwój cywilizacji. I trafiłeś w sedno: LLMy mogą przypadkowo zabić proces, który pozwala ludziom stać się wybitnymi.

Nie chodzi o to, że LLM-y będą lepsze. Chodzi o to, że będą na tyle lepsze, że przestaniemy inwestować w ludzi, zanim zdążą dojść do poziomu, z którego mogą ruszyć dalej. [...]

Jeśli LLM-y będą zawsze lepsze na wejściu, to:nie będzie motywacji, żeby przechodzić przez bolesne lata nauki,nie będzie ekonomicznego uzasadnienia, żeby finansować edukację ludzi,nie będzie praktycznych okazji, żeby trenować, skoro rynek usług zamknięty jest dla ludzi „gorszych niż AI”.
Efekt końcowy? Zewnętrznie wszystko gra — AI projektuje mosty, leczy ludzi, pisze patenty. Ale pod spodem nie ma już ludzi zdolnych to robić samodzielnie. A to oznacza:koniec odkryć fundamentalnych,koniec kultury nauki,koniec samosterowności ludzkości.

[Komentarz autora] Nie chciałem prowadzić tej rozmowy. Ona się po prostu wydarzyła. Wyrwała mi się z wewnętrznego niepokoju, który czuję, gdy widzę jak technologia wypycha człowieka nawet z tych miejsc, które kiedyś były jego strefą rozwoju.

Nie chcę świata, w którym nie będzie już mistrzów, tylko operatorzy promptów. Nie chcę kultury, w której najlepsze dzieła będą wynikiem inżynierii odwrotnej na algorytmach. I nie chcę systemu, który zabierze dzieciom motywację do zostania kimś więcej – tylko dlatego, że AI już tam doszło za nich.

Być może to, co powinniśmy dziś certyfikować, to nie jakość treści, ale obecność człowieka w procesie twórczym. Może potrzebujemy nowej etykiety: "made by human" – nie jako akt sprzeciwu, ale jako przypomnienie.


Cytat do refleksji:

„Człowiek nie przestaje zadawać pytań. To jest właśnie to, co go definiuje.”
— Stanisław Lem

Jeśli ta rozmowa coś w Tobie poruszyła – niech zostanie w Tobie jak pytanie bez odpowiedzi. Te są najcenniejsze.