Oszustwo warte siedem bilionów dolarów
Autor: AlterCabrio, 13 października 2025
Nie ma nic złego w tworzeniu narzędzi, które pomagają nam myśleć szybciej lub nieco jaśniej. Problemem jest udawanie, że te narzędzia potrafią myśleć, czuć lub tworzyć. Tragedią jest to, że przekształciliśmy jeden z najbardziej obiecujących pomysłów ludzkości w oszustwo zbudowane na szumie medialnym, skradzionej pracy i dezinformacji.
−∗−
Tłumaczenie: AlterCabrio – ekspedyt.org
−∗−
Oszustwo warte siedem bilionów dolarów
Dlaczego odmawiam nazywania degeneracji postępem
Sam Altman chce siedmiu bilionów dolarów na sztuczną „inteligencję”, która być może kiedyś będzie w stanie określić, ile nóg ma koń. A może miała leczyć raka? Nie pamiętam. Tak czy inaczej, pozostając wierne temu zadaniu, OpenAI wypuściło Sorę, generator wideo, który pochłania 700 000 dolarów dziennie, aby produkować klipy, w których palce ludzi od czasu do czasu przenikają przez obiekty stałe, gdzie grawitacja działa bokiem, gdzie koniom wyrastają dodatkowe nogi w trakcie galopu – i gdzie twój mózg gnije z każdym ruchem. Nazywają to inteligencją, „demokratyzacją” tworzenia filmów. To generator liczb losowych z działem marketingu, który zaspokaja potrzeby najgłupszych ludzi w społeczeństwie.
Cała branża sztucznej inteligencji opiera się na fundamentalnym kłamstwie: że dopasowywanie wzorców równa się myśleniu, że korelacja statystyczna równa się zrozumieniu, że przewidywanie kolejnego najbardziej prawdopodobnego tokena równa się inteligencji. Sora nie wie, czym jest filiżanka kawy – widziała miliony obrazów oznaczonych etykietą „filiżanka kawy” i nauczyła się tworzyć układy pikseli, które statystycznie przypominają te wzorce. Kiedy generuje film przedstawiający kogoś pijącego kawę, nie modeluje fizyki płynów ani anatomii połykania. Przeprowadza wielowymiarową regresję rozkładu pikseli. Filiżanka przechodzi przez dłoń, ponieważ maszyna nie rozumie pojęcia „ciała stałego”, „płynu” ani „dłoni” – jedynie korelacje statystyczne między wartościami RGB.
AGI – sztuczna inteligencja ogólna – miała oznaczać maszyny, które mogłyby myśleć, rozumować i rozumieć jak ludzie. Rozwiązywać nowe problemy w oparciu o własne, nowo powstałe myśli. Generować autentyczne spostrzeżenia. Wykazywać się kreatywnością, która nie polega jedynie na rekombinacji danych treningowych. Zamiast tego, OpenAI i jej konkurenci redefiniują AGI, oznaczając „spełnia wystarczającą liczbę kryteriów, abyśmy mogli ogłosić zwycięstwo”. Kiedy ogłoszą AGI w przyszłym roku lub w kolejnym, nie będzie to oznaczało, że stworzyli myślące maszyny. Stanie się tak dlatego, że z powodzeniem przesunęli poprzeczkę tam, gdzie tkwią ich mechanizmy dopasowujące [pattern matchers].
Wiecie, o co chodzi? To znowu autokorekta, tylko z lepszym interfejsem użytkownika. Autouzupełnianie dla pikseli. Ten sam fundamentalny proces, który podpowiada „czy wstałeś?” po „hej” o 2 w nocy, skalowany do absurdalnych wymagań obliczeniowych i opakowany w rewolucyjną retorykę.
Modele GPT OpenAI – rzekomy fundament sztucznej inteligencji – to wyidealizowane łańcuchy Markowa na sterydach. Nie rozumieją języka, przewidują prawdopodobieństwa tokenów. Kiedy ChatGPT pisze o demokracji, miłości czy fizyce kwantowej, nie ma pojęcia o rządach, emocjach ani cząsteczkach. Przeprowadza statystyczne dopasowywanie wzorców na podstawie tekstu skradzionego z internetu, przewidując, jakie słowo najprawdopodobniej następuje po poprzednim, na podstawie miliardów przykładów. Maszyna, która pisze wiersze o złamanym sercu, nigdy niczego nie doświadczyła, niczego nie rozumie, niczego nie wie. To Chiński Pokój, tylko z lepszym PR-em.
Ogłoszenie AGI, kiedy nadejdzie, będzie czystym teatrem. Pokażą demonstracje swojego modelu zdającego egzaminy medyczne (poprzez dopasowywanie wzorców do milionów tekstów medycznych), piszącego kod (poprzez rekombinację postów na Stack Overflow), prowadzącego „kreatywne” rozmowy (poprzez interpolację komentarzy na Reddit). Dziennikarze technologiczni, albo zbyt ignoranccy, albo zbyt zaangażowani, by piętnować to oszustwo, z zapartym tchem obwieszczą nadejście sztucznej inteligencji ogólnej. Ceny akcji poszybują w górę. Siedem bilionów dolarów finansowania zmaterializuje się.
I wszystko to będzie kłamstwem.
Sora to pomnik źle ukierunkowanego geniuszu, katedry wzniesione ku czci niewłaściwego boga. Każdy genialny umysł pracujący nad tym, by fałszywe filmy wyglądały choć trochę mniej sztucznie, mógłby prowadzić prawdziwe badania. Każdy dolar wydany na naukę maszyn by naśladowały ludzką kreatywność mógłby sfinansować prawdziwych, ludzkich twórców. Każda kilowatogodzina spalona na generowanie „kinowych” śmieci, które „demokratyzują produkcję filmową”, mogłaby posłużyć do stworzenia filmów, które naprawdę przyjemnie się ogląda.
Altman przyznał już to, co krytycy podejrzewali od dawna: człowiecza retoryka to tylko pozory, służące wyłudzaniu bogactwa. Kiedy zapytano go o rozdźwięk między ich utopijnym marketingiem a dystopijnymi produktami, jego odpowiedź była wymowna: muszą „zademonstrować możliwości”, jednocześnie „budując źródła dochodu”. Innymi słowy: sztuczna inteligencja, która leczy raka, eliminuje ubóstwo i przyspiesza postęp, zawsze była kłamstwem, mającym na celu usprawiedliwienie prawdziwego celu – monopolizacji infrastruktury cyfrowej ekspresji, przykuwania uwagi i torturowania mózgu.
Proces uczenia sztucznej inteligencji ujawnia skalę oszustwa. Sora wykorzystała miliony godzin nagrań wideo, miliardy obrazów, niepoznawalne ilości skradzionej ludzkiej twórczości – wszystko to zredukowane do wag liczbowych w sieci neuronowej. Maszyna nie nauczyła się, czym jest zachód słońca. Nauczyła się statystycznych korelacji między gradientami pikseli, zazwyczaj oznaczanymi jako „zachód słońca”. Potrafi generować nieskończone wariacje obiektów, które wyglądają jak zachody słońca, nie rozumiejąc, że Słońce jest gwiazdą, że Ziemia się obraca, że światło załamuje się w atmosferze. To dopasowywanie wzorców bez zrozumienia, korelacja bez związku przyczynowego, składnia bez semantyki.
Zastanów się, co tak naprawdę robi Sora. Przetwarza całe dekady ludzkiej kultury wizualnej – każdy film, każde nagranie wideo, każdy fragment zarejestrowanego człowieczeństwa, do którego ma dostęp – i redukuje je do statystycznych wzorców. Następnie odtwarza te wzorce w niesamowite symulakry, które wyglądają prawie, ale nie do końca tak, jak wspomnienia snów o filmach, które ledwo pamiętasz. Wyniki niezmiennie cechują się tym charakterystycznym migotaniem sztucznej inteligencji: powierzchnie, które zdają się oddychać, twarze, które rozpływają się, gdy wpatrujesz się zbyt długo, fizyka, która działa na podstawie logiki snów, a nie praw natury.
Byłoby to po prostu żenujące, gdyby nie było tak drogie. Wymagania obliczeniowe potrzebne do wygenerowania jednej minuty nagrania Sora mogłyby zasilić małe miasteczko przez jeden dzień. Proces szkolenia zużył tyle energii elektrycznej, że wystarczyłoby na zasilanie tysięcy domów przez rok. I po co? Aby influencerzy mogli tworzyć tła do TikToków? Aby marketerzy mogli tworzyć syntetyczne rekomendacje? Aby jeszcze bardziej zatrzeć i tak już niejasną granicę między autentyczną ekspresją ludzką a algorytmiczną aproksymacją?
Będą cię jednak zapewniać, że to niezbędny krok w kierunku ich świętego celu, jakim jest sztuczna inteligencja ogólna (AGI). To kolejne kłamstwo. Prawdziwa sztuczna inteligencja ogólna wymagałaby czegoś, czego tym systemom zasadniczo brakuje: modelu rzeczywistości. Zrozumienia przyczynowości, a nie tylko korelacji. Pojmowania pojęć, a nie tylko wzorców. Umiejętności rozumowania od podstaw, a nie interpolacji na przykładach. Żadne skalowanie obecnych podejść tego nie osiągnie, ponieważ architektura jest błędna u samych podstaw. Nie da się zbudować inteligencji na podstawie statystyk, tak jak nie da się zbudować świadomości na podstawie mechanizmu zegarowego.
Wymagania obliczeniowe obnażają nieefektywność brutalnej inteligencji opartej na statystyce. Ludzkie dzieci uczą się trwałości obiektów na dziesiątkach przykładów. Sora potrzebuje milionów filmów, a mimo to generuje filiżanki do kawy, które w połowie klatki spontanicznie zmieniają się w czajniki. Trzylatek rozumie, że ludzie mają dwie ręce. Sora, po przetworzeniu większej ilości danych wizualnych, niż jakikolwiek człowiek byłby w stanie przetworzyć przez całe życie, nadal generuje ludzi z trzema rękami wyrastającymi z torsów.
Altman wie, że AGI nie powstanie. W prywatnych rozmowach ujawnionych przez byłych pracowników przyznawał, że obecne podejście ma fundamentalne ograniczenia. Publicznie jednak podtrzymuje tę fikcję, ponieważ cały domek z kart – wyceny, akceptacja rządu, inwestycje, siedmiobilionowe zapotrzebowanie – zależy od tego, czy inwestorzy uwierzą, że AGI jest nieuchronne.
Chodzi o to, jak nieustannie redefiniują sukces. Najpierw AGI oznaczało inteligencję na poziomie ludzkim we wszystkich dziedzinach. Potem stało się „inteligencją na poziomie ludzkim w zadaniach o najwyższej wartości ekonomicznej”. Teraz „przechodzi pewne kryteria lepiej niż przeciętny człowiek”. Zanim ogłoszą zwycięstwo, AGI będzie oznaczać „generowanie wyników, które oszukują ludzi, a ci konsumują ścieki AI już tak długo, że nie potrafią rozpoznać prawdziwych myśli”.
Cała rewolucja w dużych modelach językowych opiera się na tym fundamencie z piasku. GPT-5, Claude, Grok, Gemini (pamiętacie jeszcze Gemini?) – wszystkie to wariacje na temat tego samego oszustwa: maszyny symulujące rozumienie poprzez korelację statystyczną, imitujące inteligencję poprzez dopasowywanie wzorców, udające świadomość poprzez obliczenia prawdopodobieństwa. Dlatego wszystkie brzmią tak samo. Generują tekst, który wydaje się sensowny, ponieważ nauczyły się, jak zazwyczaj wygląda sensowny tekst, a nie dlatego, że rozumieją znaczenie.
Obserwujemy systematyczną redefinicję inteligencji, która ma dorównywać temu, co maszyny potrafią udawać, zamiast tego, czym inteligencja naprawdę jest. To tak, jakby ogłosić, że pianole opanowały sztukę muzyczną – technicznie imponujące, całkowicie bezduszne i całkowicie mijające się z sednem muzyki.
Rozważmy to, co OpenAI nazywa „emergentnymi możliwościami” – rzekomo zaskakującymi zdolnościami, które pojawiają się wraz z rozwojem modeli. Ale to nie jest pojawienie się inteligencji, to po prostu statystyczna nieuchronność. Wprowadź wystarczającą ilość tekstu o szachach do programu dopasowującego wzorce, a w końcu odtworzy on ruchy przypominające te w szachach. Nie dlatego, że rozumie strategię czy planowanie (ani czym w ogóle są szachy), ale dlatego, że widział wystarczająco dużo przykładów, aby przewidzieć prawdopodobne kolejne ruchy. To nie gra w szachy. To po prostu analiza regresji notacji szachowej.
Branża o tym wie. Wewnętrzne dokumenty wielu firm zajmujących się sztuczną inteligencją ujawniają, że inżynierowie nazywają swoje modele „papugami stochastycznymi” – maszynami, które losowo rekombinują wyuczone wzorce bez zrozumienia. Jednak publicznie podtrzymują iluzję inteligencji, rozumowania i rozumienia. Muszą. Cała wycena w wysokości 150 miliardów dolarów zależy od tego, czy inwestorzy uwierzą, że te maszyny myślą, a nie tylko obliczają prawdopodobieństwo. Dlatego ci ludzie brzmią tak niewiarygodnie głupio na X.
Nie jestem przeciwna sztucznej inteligencji. Pomysł, że maszyny mogłyby kiedyś wzmocnić ludzką inteligencję, przyspieszyć odkrycia lub pomóc nam lepiej zrozumieć samych siebie, jest piękny. Odrzucam jednak oszustwo – teatr marketingowy, który sprzedaje regresję jako objawienie, dyrektorów, którzy maskują katalizatory w samochodach podczas zatrzymań przez policję jako symbole ludzkiego postępu, i kolegów od sztucznej inteligencji, którzy udają, że ten bałagan to sztuka.
Nie ma nic złego w tworzeniu narzędzi, które pomagają nam myśleć szybciej lub nieco jaśniej. Problemem jest udawanie, że te narzędzia potrafią myśleć, czuć lub tworzyć. Tragedią jest to, że przekształciliśmy jeden z najbardziej obiecujących pomysłów ludzkości w oszustwo zbudowane na szumie medialnym, skradzionej pracy i dezinformacji.
Ponownie, sztuczna inteligencja ogólna (AGI) będzie nazywana „AGI”, ponieważ udało im się przekonać wystarczającą liczbę osób, że wyrafinowane dopasowywanie wzorców równa się myśleniu. Będą wskazywać na osiągnięte wyniki, zaliczone testy, rozmowy, które brzmią po ludzku. Nie wspomną, że to wszystko to statystyczna mimikra, że ta machina nie rozumie matematyki lepiej niż kalkulator.
Marnotrawstwo energii staje się jeszcze bardziej obrzydliwe, gdy zrozumiemy, co się naprawdę dzieje. Spalamy gigawaty energii elektrycznej nie dla myślących maszyn, ale dla przemysłowych producentów śmieci. Ślad węglowy szkolenia GPT-4 – równoważny emisji 500 samochodów w ciągu całego cyklu życia – został pochłonięty przez nauczenie maszyny przewidywania, że „kot” często następuje przed „usiadł na”. Miliony galonów wody chłodzącej infrastrukturę szkoleniową Sory zostały wykorzystane do nauczenia jej, że plamy w kolorze skóry często pojawiają się nad plamami w kolorze koszuli.
To właśnie można kupić za siedem bilionów dolarów: bardziej zaawansowane dopasowywanie wzorców. Większe modele statystyczne. Obliczenia prawdopodobieństwa o wyższej dokładności. Nie inteligencję, nie zrozumienie, nie świadomość – tylko coraz droższe sposoby generowania statystycznie prawdopodobnych wyników, które wydają się sensowne dla ludzi, którzy zapomnieli, czym jest sens. I wtedy Sam jest szczęśliwy, Donald jest szczęśliwy, Jensen jest szczęśliwy. Po prostu dlatego, że udało im się lepiej wyskalować amerykańskie centra danych niż inne, dzięki czemu stały się największym producentem cyfrowych śmieci na świecie. Dziękuję za uwagę.
Problem „halucynacji”, który firmy zajmujące się sztuczną inteligencją traktują jako drobny błąd, jest w rzeczywistości błędem logicznym. Systemy te nie mają halucynacji (co, jak na ironię, wymagałoby zdolności do autentycznego myślenia) – działają dokładnie tak, jak zostały zaprojektowane, generując statystycznie prawdopodobne wyniki, niezależnie od ich prawdziwości czy dokładności. Kiedy ChatGPT tworzy nieistniejące artykuły naukowe, nie popełnia błędu – robi to, co zawsze: generuje tekst, który przypomina tekst, który już widział i brzmi wiarygodnie. Maszyna nie wie, co oznacza „prawda” lub „fałsz”. Zna jedynie prawdopodobne sekwencje tokenów.
Restrukturyzujemy całe branże wokół tych kalkulatorów prawdopodobieństwa. Zastępujemy ludzki osąd uśrednianiem statystycznym. Zastępujemy autentyczną kreatywność rekombinacją wzorców. Zamieniamy rzeczywistą inteligencję na jej symulację. Im więcej sztucznej inteligencji jest zapisane w papierach firmowych, tym wyższa jest wycena akcji. Cena akcji Apple gwałtownie spadła, ponieważ firma milczała, podczas gdy wszyscy inni byli pochłonięci szaleństwem na punkcie sztucznej inteligencji. Innowacyjny wizerunek Apple został nadszarpnięty. Kiedy wprowadzono Apple Intelligence, zbiór w dużej mierze bezużytecznych i praktycznie niefunkcjonalnych narzędzi, inwestorzy znów byli zadowoleni.
Firmy sprzedające te systemy zdają sobie sprawę, że brakuje im inteligencji — patrz ich dokumenty techniczne (Apple nawet otwarcie to przyznało i skrytykowało w dokumencie, który brzmi tak, jakby ostatni, dawno zapomniany powiew rozsądku Steve’a Jobsa przemknął przez Apple Park) — ale rozumieją też, że rynku to nie obchodzi, dopóki wyniki wydają się wystarczająco przekonujące.
Kapłaństwo inżynierii podpowiedzi [prompt engineering], które się wyłoniło, obnaża absurd. Gdyby te systemy były inteligentne, nie potrzebowalibyśmy skomplikowanych zaklęć, aby generowały użyteczne wyniki. Nie potrzebowalibyśmy „jailbreaków” [usunięcie zabezpieczeń producenta -tłum.], „monitów systemowych” i starannie opracowanych instrukcji. Po prostu komunikowalibyśmy się normalnie, tak jak ze wszystkim, co rozumie język. Zamiast tego mamy cały przemysł prompt inżynierów – ludzi, których zadaniem jest oszukiwanie kalkulatorów prawdopodobieństwa, aby generowały określone wzorce poprzez ostrożną manipulację tekstem wejściowym – a następnie sprzedawanie ich w arkuszach kalkulacyjnych za 60 dolarów.
Badacze z OpenAI, w artykułach, które rzadko trafiają na pierwsze strony gazet, przyznają się do tych ograniczeń. Piszą o „mirażu możliwości” – tendencji dużych modeli do wydawania się bardziej wydajnymi, niż są w rzeczywistości, ponieważ zapamiętały ogromne ilości danych treningowych. O „pozornej korelacji”, czyli tendencji maszyn do uczenia się przypadkowych wzorców zamiast sensownych zależności. O „przesunięciu rozkładu” – katastrofalnych błędach modeli w przypadku napotkania danych wejściowych różniących się od danych treningowych.
Ale te wyznania giną pod lawiną szumu wokół sztucznej inteligencji ogólnej (AGI), wokół świadomości i maszyn, które myślą. Rzeczywistość – że zbudowaliśmy bardzo drogie generatory liczb losowych – nie sprzedaje licencji firmowej ani nie uzasadnia wycen na miliardy dolarów.
Filmy Sora prezentowane przez OpenAI są starannie selekcjonowane z tysięcy generacji, wybierane pod kątem tych, w których konie mają odpowiednią liczbę nóg, filiżanki z kawą nie przechodzą przez ręce, a fizyka przypadkowo wygląda poprawnie. Na każdy film, który pokazują, setki zostały odrzucone, ponieważ ujawniały, czym tak naprawdę jest ten system: absolutną i bezużyteczną bzdurą.
To jest siedmiobilionowe oszustwo: sprzedawanie dopasowywania wzorców jako inteligencji, korelacji jako zrozumienia, prawdopodobieństwa jako zrozumienia. Maszyny nie myślą – wykonują operacje statystyczne. Nie tworzą – rekombinują. Nie rozumieją – obliczają korelacje.
Katastrofa ekologiczna, marnotrawstwo zasobów, niewłaściwe wykorzystanie ludzkich talentów – wszystko to ma służyć budowaniu bardziej zaawansowanych kalkulatorów prawdopodobieństwa. Maszyn, które potrafią generować tekst, który brzmi sensownie, ale nic nie znaczy. Filmów, które wyglądają realistycznie, ale nie odzwierciedlają rzeczywistości. Odpowiedzi, które wydają się poprawne, mimo że nie rozumieją pytań.
Tymczasem społeczeństwo staje się coraz głupsze od treści generowanych przez sztuczną inteligencję, tracąc zdolność odróżniania autentycznych myśli od statystycznych przybliżeń. Jesteśmy uczeni akceptowania wszystkiego, co jest gorszej jakości – tekstów o niższej jakości, obrazów o niższej jakości, myślenia o niższej jakości. Zanim OpenAI ogłosi osiągnięcie sztucznej inteligencji, będziemy tak przyzwyczajeni do syntetycznych przybliżeń, że nie będziemy pamiętać, jak wygląda prawdziwa inteligencja.
Tak właśnie wygląda końcowy etap zgnilizny mózgu, leżący u podstaw rewolucji sztucznej inteligencji: przekonaliśmy samych siebie, że wystarczająco zaawansowane dopasowywanie wzorców równa się inteligencji, że wystarczająco rozbudowane modele statystyczne równają się zrozumieniu, że prawdopodobne wyniki równają się myślom. Pomyliliśmy mapę z terytorium, symulację z rzeczywistością, a wzorzec ze znaczeniem.
I zamierzamy wydać na to siedem bilionów dolarów. Dzięki, Sam. Bardzo fajne.
_______________
The Seven Trillion Dollar Scam, A Lily Bit, Oct 12, 2025
−∗−