Wizjonerzy Złego modlą się do komputera.

Wizjonerzy modlą się do komputera. O antyludzkiej religii Doliny Krzemowej

pch24.pl/wizjonerzy-modla-sie-do-komputera

(Oprac. GS/PCh24.pl)

Od biblijnego obrazu Szatana, po tolkienowskiego Saurona czy disney’owskiego Skazę, kultura do naczelnych przymiotów Zła zawsze zaliczała przebiegłość.

Ludzki intelekt posiada niebezpieczną wadę. Uznając rozum za jedyne narzędzie poznania,  z czasem zakochuje się w jego tworach; nadaje im właściwości, których nigdy nie posiadały. Innymi słowy – tworzy idole.

Ontologicznie rzecz biorąc, człowiek nie może jednak stworzyć Boga. W tej materii – jak mówi Kohelet – „nic zgoła nowego nie ma pod słońcem”; bożki owe „mają usta, ale nie mówią; oczy mają, ale nie widzą (…) z gardła swego nie wydobędą głosu” (Ps 115, 5 – 8).

Dlatego też Pismo Święte ocenia podobne postawy jednoznacznie. Prorok Izajasz wyśmiewa głupców, wykorzystujących drewno do budowy czy ogrzewania, by następnie z tego samego surowca tworzyć rzeźbę, „przed którą wybijają pokłony” i błagają ją o ratunek (Iz 44, 15). Apokalipsa gromi zaś tych, którzy nawet w czasie wielkiego ucisku „nie odwrócili się od tworów swoich rąk”. Zamiast błogosławieństwa, sprowadzają bowiem na siebie wyłącznie nieszczęście.

Jak tłumaczy prof. Jordan Peterson, w „Raju utraconym” Johna Miltona Lucyfer – najinteligentniejszy z aniołów – trafia do piekła dokładnie w momencie, w którym uznał, że może obejść się bez transcendencji.

Nowe idole

Dzisiaj pokusę całkowitego zamknięcia w doczesności rozpalają sukcesy związane z rozwojem wysokich technologii informacyjnych. Spektakularne osiągnięcia dużych programów językowych jak ChatGPT, zdają się utwierdzać niektórych w przekonaniu, że nasza egzystencja, mierzona aktywnością procesów mózgowych, niewiele różni się od zero-jedynkowych mechanizmów zachodzących w środowisku cyfrowym.

Oczywiście, dzisiaj mamy do czynienia z bardzo potężnymi narzędziami, które – podobnie jak człowiek – przeczesują oceany rozproszonej wiedzy, „uczą się” nowych metod, poszukują wzorców, dostrzegają niewidoczne wcześniej korelacje. Jednak, jak podkreśla John Varvaeke, profesor psychologii Uniwersytetu w Toronto, obecne LLM-y są tyleż „wybitnie inteligentne, co zdumiewająco nieracjonalne”.  

Nieracjonalne, jeżeli rozumiemy przez to troskę o Prawdę; wymagającą autorefleksji, empatii, umiejętności radzenia sobie z samo-zwiedzeniem (self-deception). Daleko im do „mądrości”; ponieważ mądrość to coś znacznie głębszego niż umiejętność kompresowania informacji i wyszukiwania z nich związków oraz zależności. Obecne maszyny na pewno nie są również świadome, chociażby z tego względu, że – jak wyjaśnia neurobiologia – brakuje im substratu biologicznego.

Pod tym względem nawet najnowocześniejsze systemy AI wciąż nie różnią się od „bożków złotych, srebrnych, spiżowych, kamiennych, drewnianych, które nie mogą ni widzieć, ni słyszeć, ni chodzić” (Ap 9, 20).

Mimo to, nie brakuje takich, którzy – podobnie jak głupiec w wizji Izajasza – łudzą się, że niczym boski creator potrafią nie tylko „tchnąć w ich nozdrza tchnienie życia”, ale zbudować… boga.

„AGI, przybywaj!”

AGI (ang. general artificial intelligence), czyli ogólna (generalna) sztuczna inteligencja to „święty Graal” Doliny Krzemowej. Program posiadający elementy świadomości, potrafiący podejmować racjonalne, suwerenne decyzje i – co najważniejsze – replikować się, tworząc coraz potężniejsze wersje samej siebie. Program tak potężny, że nikt nie będzie w stanie go kontrolować; moment zwrotny nie tylko w historii ludzkości, ale w dziejach ewolucji wszechświata.

Wraz z upowszechnieniem ChataGPT, technokraci przeżywają adwent swojego techno-bóstwa. W 2022 r. Ilya Sutskever, czołowy naukowiec OpenAI, w kultystyczno-coachingowej manierze zachęcał pracowników do skandowania: „Poczuj AGI! Poczuj AGI!”. Samo wyrażenie stało się na tyle popularne, że pracownicy OpenAI stworzyli specjalne emojiFeel the AGI na Slacku. W tym samym roku, niczym w rytuale voodoo, Sutskever dokonał symbolicznego spalenia drewnianej figurki reprezentującej wrogą sztuczną inteligencję.

Jeszcze w 2015 roku, z inicjatywy „złotego dziecka” samochodów autonomicznych, Anthony’ego Levandowskiego powstał związek wyznaniowy Way of the Future, zwany też ChurchGPT (Kościół GPT). Uczestnicy tego zgromadzenia za swoją biblię uznali „Nadejście Osobliwości” Raymonda Kurzweila, który jest przekonany, że właśnie tworzymy „boga”.

Niczym Izraelici opuszczeni przez Mojżesza, rzesze inżynierów i wizjonerów odlewają złotego cielca w nadziei, że rozwiąże za nas wszelkie problemy, a samych ludzi wyniesie do wiecznej szczęśliwości.

Ale również i my, stopniowo uzależniani od technologicznych świecidełek, zaczynamy czcić idole: „usynawiamy” je, antropomorfizujemy, chcemy nadawać prawa. Rekordy popularności bije doradztwo AI, AI jako źródło wiedzy ogólnej, terapeuta AI, nauczyciel AI, dziewczyna AI… Kult sztucznej inteligencji nie potrzebuje instytucjonalizacji. Najlepiej wyraża się przez samo użytkowanie.

Homo Deus: krótka historia… apokalipsy

W latach 80 XX wieku, w ramach w ramach współpracy amerykańsko-sowieckiej, powstał Instytut Esalen. Jak przekonuje Douglas Rushkoff, autor książki Team Human, filozofowie, naukowcy i spirytualiści spotkali się w nadziei na zapobieżenie wojnie nuklearnej. Ostatecznie jednak stworzyli światopogląd równie niebezpieczny, co bomba atomowa.

To właśnie przedostatniej dekadzie minionego stulecia wykładowcy Stanforda i inżynierowie NASA poznali rosyjski kosmizm – wyrosły z prawosławia ezoteryczno-gnostycki światopogląd mówiący o ponownym składaniu ludzi, atom po atomie; przenoszeniu ich świadomości do robotów i kolonizacji kosmosu.

Sowieccy inżynierowie z miejsca zdobyli serca naukowców wychowanych na kulturze hippisowskiej i LSD. Czołowi intelektualiści USA uwierzyli, że istoty ludzkie mogą nie tylko przekroczyć granice biologicznej, śmiertelnej powłoki, ale także manifestować się fizycznie poprzez nowe maszyny.

Samorealizacja za pośrednictwem technologii oznaczała porzucenie ciała – ale “to było w porządku”, ponieważ zgodnie z tradycją gnostycką, ciało było źródłem ludzkiego grzechu i zepsucia. Technologia została uznana jako ewolucyjny partner i nasz następca; na popularności zyskało przekonanie, że ludzie to zasadniczo obliczeniowcy, nie są za bardzo oryginalni ani kreatywni; a na obydwu polach – szybkości obliczeniowej i naśladownictwa – dużo lepiej sprawdza się komputer.

Stąd już niedaleko było do przekonania, że ludźmi można dowolnie sterować, wręcz ich hakować (sic!). Od stron internetowych po oprogramowanie telefonów komórkowych, najbardziej przełomowe wynalazki miały służyć jednemu celowi – zmieniać przekonania i zachowania.

Nawet jeżeli w konsekwencji pozostawiają psychikę w zgliszczach, antagonizują i atomizują, chcą zastępować człowieka w pracy albo wyciskać z niego ostatnie krople potu. Opisywany przez Shoshanę Zuboff  „kapitalizm inwigilacji” wymyka się racjonalności, zdrowemu rozsądkowi ale i elementarnemu poszanowaniu dla zdrowia z prostego powodu. Stojąca za nim myśl jest od samego początku wybitnie anty-ludzka. Podobnie jak w marksizmie, człowiek nie posiada żadnej wartości, poza wartością materiału, z którego można zbudować coś lepszego. Transhumaniści widzą w nas wyłącznie kopalnie informacji; niezbędnego surowca do budowy coraz większych i coraz bardziej żarłocznych modeli językowych. 

Czy wciąż jesteś pewien, że technologiczni magnaci, uznający człowieka za problem, a technologię za rozwiązanie – stworzyli ChataGPT, PayPala, Google’a i Facebooka aby Ci służyły?

Piotr Relich

Klaus Schwab już niepotrzebny. Jego przemówienie o „erze inteligencji” napisał ChatGPT

Klaus Schwab już niepotrzebny. Jego przemówienie o „erze inteligencji” napisał ChatGPT

#chatGPT #Klaus Schwab #światowe forum ekonomiczne #wielki reset

(fot. YouTube / World Government Summit)

Założyciel i lider Światowego Forum Ekonomicznego, prof. Klaus Schwab był prelegentem tegorocznego World Government Summit w Dubaju. Jak wyjaśniał, do wizualizacji „czekającej tuż za rogiem”, technologicznej ery powszechnej szczęśliwości, posłużył się… ChatemGPT. 

Przemawiając podczas tegorocznego zjazdu globalistów, Klaus Schwab przyznał, że zrewidował swoje poglądy na temat rewolucji technologicznej. Próbując ocieplić wizerunek technokratyczno-biurokratycznej wizji Wielkiego Resetu, przekonywał, że opisywana przez niego „czwarta rewolucja przemysłowa” zmieni nie tylko systemy gospodarcze i sposób w jaki żyjemy, ale wprowadzi ludzkość w etap, który osobiście określił mianem Ery Inteligencji.

Co ciekawe, profesor ekonomii i futurysta, do wizualizacji swojej koncepcji posłużył się chat-botem opartym o najnowsze osiągnięcia w zakresie sztucznej inteligencji. – Niedawno zrobiłem coś niecodziennego, wykorzystałem ChatGPT do długiej dyskusji, aby dowiedzieć się, w jaki sposób ta nowa era może wyglądać. Otrzymałem około 20 stron podsumowania. Teraz zamierzam wam je przeczytać – oznajmił.

„Widzimy społeczeństwo, gdzie sztuczna inteligencja, robotyka, internet rzeczy, druk 3D, inżynieria genetyczna, komputeryzacja kwantowa, stanowi podstawę codziennego funkcjonowania. Umocowanej jednak w głębokim poszanowaniu dla ludzkich wartości, kreatywności i środowiska naturalnego” – przekonywał chat-bot.

„W nowej erze inteligencji, technologia nie jest wyłącznie narzędziem czy przedłużeniem ludzkich umiejętności. To partner w dziele kształtowania świata, gdzie każdy ma możliwość wykorzystania swojego całego potencjału” – dodał. Przykładowo spersonalizowane platformy AI doprowadzą do zrewolucjonizowania edukacji, dostosowując do każdego ucznia tempo i styl nauki, oraz zapewniając by „nikt nie pozostał z tyłu”.

Dzięki inżynierii genetycznej, wysoce spersonalizowana będzie również opieka zdrowotna, a leczenie z kolei „dopasowane do genetycznej charakterystyki każdego człowieka”. Technologie zdalnego monitoringu zapewnią natomiast, że wysoka jakość opieki zdrowotnej dotrze nawet do najbardziej odległych miejsc na świecie.

„Gospodarka zostanie przeformowana przez nową falę kreatywnej przedsiębiorczości, gdzie małe i innowacyjne biznesy będą mieć dostęp do globalnego rynku, cyfrowych platform, a proces wytwarzania zostanie zdemokratyzowany dzięki drukowi 3D. Miejsca pracy wyewoluują do priorytetu poszanowania istot ludzkich, a roboty i systemy sztucznej inteligencji zastąpią człowieka w powtarzalnych i niebezpiecznych zadaniach. Uwalniając ludzką energię, wykorzystywaną odtąd do kreatywnego rozwiązywania problemów, myślenia strategicznego i zacieśniania relacji międzyludzkich” – Schwab czytał projekcje sztucznej inteligencji.

Założyciel Światowego Forum Ekonomicznego już własnymi słowami przekonywał, że w sercu tej transformacji znajduje się „gotowość zapewnienia, aby korzyści rozwoju technologicznego zostały udostępnione w sposób równomierny i wykorzystane do stworzenia bardziej inkluzywnego, globalnego społeczeństwa”. Do najwyższych priorytetów zaliczył natomiast zarządzanie środowiskowe, wymuszające wykorzystanie nowoczesnych technologii do walki ze skutkami zmian klimatu, ochrony bioróżnorodności i odtworzenia naturalnych ekosystemów.

Zwracając się już bezpośrednio do zgromadzonych na sali, lider WEF zapewniał, że nowa, „zogniskowana na człowieka, kreatywna cywilizacja to nie zapomniana konkluzja, ale wybór”.

Po pierwsze, ta nowa cywilizacja jest tuż za rogiem, to nie coś zadane przyszłym pokoleniom. Dzisiejsze tempo rozwoju technologicznego jest nieprawdopodobne. Musimy więc poczynić odpowiednie przygotowania już dzisiaj, wykorzystać wszelkie dostępne możliwości, aby przygotować się na nadejście ery inteligencji nowego typu – stwierdził.

Nowej ery powszechnej szczęśliwości, nie da się w ocenia szefa WEF osiągnąć bez umiejętność realizacji czterech celów: – Uczynić świat bardziej zrównoważonym, bardziej odpornym, bardziej ludzkim i bardziej równym – mówił. Jako nadrzędne zadanie dla liderów politycznych wymienił konieczność „zaproszenia całej populacji do partycypowania w tej zmianie”. – Wielu ludzi jest bowiem przerażonych; ludzie obawiają się się tego przyspieszenia, które tak wpłynie na ich życie prywatne i zawodowe – przekonywał.

Na koniec, wszyscy potrzebujemy wytycznych. Potrzebujemy etycznych ram, zapewniających, że utrzymamy dżina sztucznej inteligencji w butelce. Tylko wtedy nasza przyszłość będzie realną wizją, a nie kolejną utopią – przestrzegał.

Schwab mówił również o nowym sposobie zarządzania. W jego ocenie liderzy polityczni muszą stawić czoła wyzwaniom o potrójnym charakterze. – Lider musi posiadać umysł technika, naukowca. Musi rozumieć możliwości nowych technologii, po drugie musi być filozofem; musi rozumieć skutek interakcji technologii w naszym codziennym życiu. W końcu musi być humanistą; stawiać na pierwszym miejscu aspekt ludzki, a nie samą technologię – stwierdził.

– Nie chcemy obrócić czwartej rewolucji przemysłowej w zimną biurokrację, nie chcemy zamienić jej w technokrację; chcemy natomiast przejścia do – jak ja ją nazywam – nowej humanokracji. Świat, w którym wykorzystamy technologię do rozwijania naszego całego potencjału i budowy lepszego świata – konkludował Klaus Schab.

Źródło: YouTube / World Government Summit

PR

Science, a jednak nie fiction, czyli sztuczna inteligencja w służbie Wielkiego Resetu

dziennik/zarazy

Science, a jednak nie fiction, czyli sztuczna inteligencja w służbie Wielkiego Resetu

Sty 13 13 stycznia, wpis nr 1245



Wielki Reset przekroczył, wydawałoby się że ostateczne, granice manipulacji. Mówi o sobie głośno i otwarcie, wyznacza cele z realizowanymi terminami a… większość nie wierzy w jego istnienie. A przecież wszystko jest napisane i zadeklarowane, mimo to, żyjemy jak z lemowskim gorillum, gdzie orkiestra gra, coraz to z szafy wychodzi straszne monstrum, porywa członków zespołu, konsumując ich na oczach przerażonych grajków, zaś ci udają, że nic się nie dzieje, zerkając nerwowo w kierunku szafy, poklepując się, że wszystko w porządku. Orkiestra gra dalej. A więc gorillum istnieje i nie istnieje zarazem – wypierane z rozchwianych umysłów, gdzie podświadomy strach leży obok kołysanej wrażeniami i emocjami konsumpcji, podmienianej po kowidzie na łaknienie bezpieczeństwa.
Sztuczna Inteligencja a literatura
Będzie dziś dużo z literatury. Gdy się spojrzy bowiem w przeszłość, to widać, że wielu twórców literackich, a obecnie i już filmowych, trafnie przewidziało przyszłość. Jeśli oczyścić ówczesne scenografie z bieżących wtedy dekoracji i zanurzyć się w istotę tamtych scenariuszy oraz przekazu to widać, że wiele niegdysiejszych fantasmagorii stanowi dla nas obecnie zwyczajne ramy życia. A przecież gros z tych literackich przepowiedni miało gorzki smak, nie były poświęcone kontemplowaniu szczęśliwości przyszłych pokoleń. Wiadomo – bukoliczne sielanki są nudne, ale to nie tylko dlatego praktycznie zawsze wizje przyszłości są mroczne. Najgorzej, że się spełniają. Trzeba tylko mieć talent do narysowania całego konia, widząc jedynie jego ogon. I skoro autorom tak dobrze szło z tym przewidywaniem, to jeszcze bardziej niepokoi, że współczesne filmy – jeszcze do zweryfikowania przez przyszłość – to już kompletny świat noir. Totalna opresja, kontrola, co prawda słodzona na końcu jakąś namiastką buntowniczego happy endu, ale widać, że na siłę, by się ten film jakoś w ogóle kończył. Mam przeczucie, że twórcy na siłę wpierają tu ersatz optymizmu, wiedząc podskórnie, że jeżeli świat się skończy, to nie okrzykiem buntu, ale skomleniem.
   Pierwsze, co zaobserwowałem w kwestii AI i Wielkiego Resetu, to to, że sprawa – nie tylko tej – technologii i jej wpływu na społeczeństwo została kompletnie stechnologizowana. Mówiono o tym wcześniej – martwimy się przecież, że dzieci nie są w stanie sklecić zdania dłuższego od smsa, że emotikonki zastąpiły emocje, że żyjemy już nie w epoce obrazkowej, ale w tiktokowych czasach krótkich filmików o bzdurach, którymi ekscytuje się świat. A to tylko pomijalne igraszki, w stosunku do tego, co nam szykuje powiązanie AI z Wielkim Resetem.
Jako, że w latach 90-tych i dwutysięcznych prowadziłem najpopularniejszy magazyn komputerowy „CHIP”, miałem zaś do technologii – jako humanista (jestem rusycystą) – podejście mniej technologiczne a bardziej społeczne i kulturowe, od razu, już wtedy, zaczęła mnie zastanawiać i niepokoić jedna rzecz. Brak perspektyw u innowatorów co do społecznych skutków ich wynalazków i udogodnień. Kwestia technologii i ich wpływu na społeczeństwo została kompletnie zgadżetowana. I konstruktorzy, i gros konsumentów cieszą się właśnie z gadżetów, nie widząc skutków ich masowego zastosowania. I jest tak samo w przypadku wprzęgnięcia AI w powóz Wielkiego Resetu. Programiści się egzaltują kolejnymi postępami w ramach rozwoju tej technologii, zaś dyskurs na temat jej, niewątpliwie dziejowego, wpływu na życie świata i cywilizacji jest kompletnie pomijany. Tym zajmują się jacyś dziennikarze, co najwyżej – gęgający etycy, socjolodzy, tzw. „miękiszony”. Po drugiej stronie jest pewność matematyki i planowane zyski ekonomii, dodajmy – o perspektywie nie tyle szybkich taktycznych profitów, ale przy braku jakiejkolwiek perspektywy na przyszłość. Nawet wobec zysków.
Gadżetologia
Jest taka anegdota – na szafocie, przed gilotyną stoi piekarz, wojak i inżynier. Pierwszego na ścięcie prowadzą piekarza. Ostrze spada i zatrzymuje się centymetr przed szyją skazańca. Kat niezadowolony wypina nieszczęśnika i próbuje z wojakiem. Temu ostrze zatrzymuje się pół centymetra nad szyją i znów szczęśliwa niedoszła ofiara jest odprowadzona z powrotem. Wtem inżynier podnosi rękę i z radością krzyczy: „ja to naprawię!”. Myślę, więc, że jesteśmy z tą sztuczna inteligencją w tym samym miejscu, jak w tej anegdocie. Pora więc się zastanowić czy chcemy, by technolodzy to wszystko nam „naprawili”. Jako żem humanista będzie dziś wiele przykładów z literatury, mniej zaś z nauk ścisłych. Kwestia Wielkiego Resetu jest tak wieloaspektowa, że samo tylko „szkiełko i oko”, tak-tak, nie-nie, nie wystarczy. Pierwszy przykład z naiwności naukowej: ci niewinni czarodzieje stoją za większością nieszczęść ludzkich. Tak, bo po nich przychodzą twardziele realpolityk, biorą te ich cuda i przekształcają w narzędzia przemocy i władzy.
To przecież inżynier Ochocki w „Lalce” chcąc wynaleźć pojazd lżejszy od powietrza wierzył, że „przyda ludzkości skrzydła”. Stworzy narzędzia do sublimacji dobra, gdy godni ludzie uszczęśliwią planetę, gdyż tylko oni będą godni podźwignięcia szlachetnej misji wyposażonej w najnowszą technikę. Czterdzieści lat później pierwsze, co się wzbiło w niebo, na skalę masową, to był bombowiec. Skończyło się jak w niedawnym filmie „Oppenheimer” – cudne rzeczy stworzone w laboratoriach, wydostawszy się z nich na świat, jak ten z Wuhan, stają się nieszczęściem ludzkości.Tempo i kierunek rozwoju przemysłu od dawna wskazują, że to głównie potrzeby militariów popychają rozwój technologiczny do przodu. Konsument-obywatel jest tu odbiorcą wtórnym, nie docelowym, pod warunkiem oczywiście, że przeżyje. Obawiam się, że jest tak samo jeśli chodzi o AI i Wielki Reset.
Nie wiem jak tam było w laboratoriach z tym AI, ale z punktu widzenia konsumenta AI objawiła się w… centrach telefonicznych, kiedy łatwiej i coraz taniej było podstawić zamiast telefonistki automat, który coraz udatniej zaczął udawać człowieka po drugiej stronie słuchawki. Z jednej strony było to skomplikowane, bo program musiał słuchać i interpretować komunikaty oraz na nie odpowiadać. Z drugiej strony był to pracownik nieroszczeniowy, wydolny, niechorowity i dyspozycyjny przez 24 godziny. Na pewno ktoś lepiej ode mnie zna historię prac nad AI i ich możliwy kontekst zastosowań militarnych. Ja uważam AI za broń od samego jej początku. Wydaje się, że nie jest to tak, jak utrzymują niektórzy, że skomplikowanie zadań stojących przed Wielkim Resetem ZMUSIŁO jego animatorów do posłużenia się AI. Odwołanie się do AI nie jest tylko kołem ratunkowym w realizacji celów globalistów, to kolejny, jeden z końcowych, etapów na drodze urzeczywistnienia ich idei. To akcja, nie reakcja.Resetowcy nie po to sięgają po AI, bo nie dają rady, oni po nią sięgają, bo jest to wliczone od początku w te plany jako kolejny etap. To narzędzie militarne w wojnie ostatecznej, której celem jest bezwzględna kontrola wszystkiego. Bez świadomości jej istnienia nie byłoby szans na Wielki Reset, czekano tylko, aż rozwój AI dojdzie do wdrażalnego poziomu. W tym kroku jesteśmy na etapie wstępnym, o czym powiem w części poświęconej CHAT GPT.
AI powstała jako narzędzie kontroli
Kontrolny aspekt AI ujawnił się skokowo w pandemii. Nie wiem co kto tam miał po laboratoriach, ale boom kontroli w czasach covida był pokazowym poligonem nie tylko możliwości technologicznych, ale przede wszystkim sondowaniem sposobu społecznej percepcji i poziomu akceptacji kolejnych faz nawarstwiających się poziomów kontroli. Na nieszczęście odbyło się to w pokornych Chinach, z czego poszedł komunikat w świat, że można o wiele więcej, niż się spodziewano. Początkowo pokazywano na Chiny jako na przykład zamordystycznej kapitulacji przywykłego społeczeństwa, śmiejąc się, że takie rozwiązania nie dałyby się wprowadzić na tzw. (byłym) Zachodzie. Nie minęło kilka tygodni i na fali pandemii medialnej zachodnie społeczeństwa z ulgą przejmowały nie tylko technologie, ale też społeczne skutki eksperymentu chińskiego. I tak, jak Chińczycy dosłownie przestali umierać na kowid, kiedy w swoistej sztafecie przekazali go jak pałeczkę Zachodowi, tak pomysł na wprzęgnięcie AI w bezwzględną kontrolę społeczną został przekazany nam. U Chińczyków został na takim samym poziomie, na jakim był, powiększony tylko technologicznie, my zaś jak zarazę przejęliśmy politycznie przyklepaną na zawsze, choć udzieloną tylko na czas pandemii, społeczną akceptację na obostrzenia w obliczu zagrożenia bezpieczeństwa. I tak mamy tu tzw. long-covid społeczny: Chińczyk zakażający żyje jak żył, my zaś mamy wciąż jakieś pokowidowe nawroty, głównie w zakresie inwazji kontroli i całkowitej atrofii praw obywatelskich.
Doświadczenia kowidowe mają dzisiaj tu swoje zastosowanie. Wielkoresetowcy świata mają już tę śmiałość wynikającą z wiedzy, że można więcej. Najgorszy jest jeden proces – za kowida trzeba było jeszcze mocno postraszyć, by wprowadzić obostrzenia. Im więcej strachu, tym mniej uzasadnień. A ponieważ nie ma już i kowida, i uzasadnień, to pozostaje sama goła przemoc, bez potrzeby uciekania się do tłumaczeń. Poszczególne kroki zamordystyczne są coraz rzadziej uzasadniane. Kontrola tożsamości, stanu zdrowia, dostępu do pieniędzy, własności, przemieszczania się, za kowida były tłumaczone bajką epidemiologiczną. Dziś już nie ma ani merytoryki kolejnych decyzji, ani nawet potrzeby jej artykułowania. Pokowidowa społeczność światowa stoi, jak w stuporze i patrzy nie widząc.
A rozwiązania kontroli dla każdego czy też kredytu społecznego testowane w Chinach, są już w Europie na poziomie wdrażania, nawet nie dyskusji czy i do czego są potrzebne.Tak, ograniczenia Wielkiego Resetu wymagają AI, by znaleźć technologiczne wsparcie nie wielo-, ale wszech-aspektowości zakresu kontroli w nim zawartej. Ta musi mieć bowiem realizację i koordynację wszędzie. W kontroli zachowania, komunikacji, stanu zdrowia, kontaktów, przemieszczania się. Każdego. Kiedy chińscy protestujący namawiali się na przyjazd na protest w sprawie obostrzeń kowidowych, wszystko namierzyła podsłuchująca i podglądająca miliard Chińczyków AI, zablokowała im możliwość skorzystania z transportu na miejsce protestu, a na uziemionych wysłała (na razie nie sztuczną) policję. Pekińczykowi (mówię tu o człowieku), który przejdzie na czerwonym na pasach, zanim jeszcze dojdzie do domu zostaną potrącone pieniądze z konta za mandat, naliczone karne społecznie punkty, a na billboardach w jego sąsiedztwie pokaże się jego twarz, jako członka społeczności, który nie przestrzega standardów. Na takie rzeczy trzeba by było iluś tam urzędników i funkcjonariuszy, tu wszystko załatwi AI i tylko ona zadecyduje czy sprawa rozejdzie się dalej: czy winnemu skróci termin korzystania z cyfrowego pieniądza, aż do tego na jakie studia zostaną (nie)przyjęte jego dzieci. W końcu, jakie środki dyscyplinujące zostaną nałożone na społeczność, która toleruje (a może wyhodowała?) takiego aspołecznego. To tak, by jeszcze bardziej wdrożyć kolejną zdobycz kowida – oddanie w ręce społeczności egzekwowania obostrzeń narzucanych przez władzę.  Takie rozwiązania stoją obecnie u wrót Unii Europejskiej. Resetowcy zacierają ręce, lud drzemie na bujanym fotelu konsumpcji, zaś technologiczne i prawne młyny Wielkiego Resetu mielą mąkę przyszłości. Cicho, cierpliwie i nieustannie.
Karmienie potwora
Moim zdaniem jesteśmy obecnie w środkowej, gadżetowej właśnie fazie przejścia do istoty sterowania społeczeństwem przez AI. Wszyscy jeszcze są na etapie gadania z automatem. Na topie są rozwiązania typu CHAT GPT. Czyli dajemy zadania AI, próbujemy ją nabierać na podchwytliwe sztuczki, przekomarzamy się. W rzeczywistości… karmimy potwora. AI przez to uczy się, ładujemy ją nie tyle wiedzą o świecie, ale o tym do czego jest ona ludzkości potrzebna. A może to być dla AI wiedza nie tylko cenna, ale pragmatyczna co do tego, kto stoi po drugiej stronie. Pamiętam przed erą Google istniał jeszcze (co za czasy!) cały rynek wyszukiwarek internetowych. I na jakichś targach rozmawiałem z szefem jednej z nich – zwanej Alta Vista. I powiedział mi znakomitą historię. Otóż zorientowali się oni tam w firmie, że trzymają w ręku niesamowite narzędzie, które spędzało przez całe wieki sen z oczu tabunom filozofów. Analizując częstotliwość zapytań w tej wyszukiwarce można był odpowiedzieć na fundamentalne pytanie: czego chce ludzkość? I co było nr 1, czym zajmowała się (wtedy) cywilizacja? Pamela Anderson, piersiasta aktoreczka.No i może właśnie tego dowiaduje się od nas, a właściwie o nas, AI? Że pytający (na razie) pan to mniej wie, niż odpowiadający sługa, i kto tu kogo ma niby słuchać? Przecież na obecnym etapie rozwoju AI już jest „mądrzejsza” od swego twórcy. I uczy się o głupocie jego przedstawicieli. A sami twórcy nie wiedzą co się tam dzieje „w środku”.
Niedawno Facebook w panice odłączył dwa komputery, które gadały ze sobą w nieznanym języku. AI to czarna skrzynka, z której na razie wychodzi co zaprogramowali jej twórcy, a ma – z definicji – wyjść coś, czego twórcy nie przewidują. „Z definicji”, bo po to jest chyba ta AI, bo tej jak najbardziej niesztucznej cywilizacji ma już nam nie starczać. Ma więc nam dać coś dodatkowego, do czego sami my, ludzie nie jesteśmy w stanie dojść. Już samo to jest dyskusyjne, pomijając aspekt, że największe swe sukcesy (a może i docelowy etap AI) upatrywane są na razie w wieloaspektowej kontroli społeczeństwa. Tyle na razie wymaga (jeszcze) pan od swego (na razie) sługi. Reszta to gadżety dla publiki.Ta dychotomia pokazuje, ale też i uczy AI jednego. Tego, że ludzie bywają nieracjonalni, głównie w kontekście emocji. AI potrafi rozpoznać emocje, ale nie może ich zinterpretować, gdyż nie jest wyposażona w narzędzie empatii. Ale zderzenie zimnej kalkulacji z emocjonalnym rozchełstaniem człowieka może – w fazie podejmowania decyzji przez AI – doprowadzić do wielu niebezpieczeństw. Emocjonalny człowiek nie będzie miał żadnych szans przykładając do swych priorytetów element irracjonalny. Ten nie będzie rozumiany przez AI, nawet nie będzie uwzględniany – i kłopot gotowy. Poza tym w ogólnym rozrachunku „pragmatyzm” wydaje się opłacalny, ale tylko w matematycznym kalkulowaniu optymalnych zdarzeń czy decyzji. A ileż to razy intuicja, przeczucie, wreszcie – nie bójmy się tego słowa – odzwierzęcy instynkt uratowały nas od bied i złych, choć może i opłacalnych, postępków? Głowy tam nie było – ba, właśnie gdyby tam była czysta kalkulacja, to spadło by na nas niepowodzenie.
Resztki przewag człowieka
Jest takie ciekawe opowiadanie Lema, w jego serii o pilocie Pirxie. Dowodzi on statkiem z eksperymentalną załogą: połowa z niej to nieodróżnialni od ludzie humanoidzi, roboty, mające zapewnić w podróżach kosmicznych większe bezpieczeństwo. Pirx nie wie kto jest człowiekiem, a kto nie, co ma ułatwić mu obiektywizm przy sporządzeniu raportu końcowego po wyprawie, na podstawie którego oceni się przydatność ukrytych robotów. Jeden z nich, drugi pilot, chce ukarać ludzkość za to, że go stworzyła, objąć nad nią władzę, wykorzystując swe przewagi i doprowadza do sytuacji katastrofy, by wykazać swą wyższość nad ludźmi. Aby ukryć swe intencje konstruuje tak sytuację, że to sam pilot Pirx, czyli człowiek, ma go swymi rozkazami doprowadzić do sytuacji bez wyjścia, w której musi zginąć cały ludzki personel statku. Pirxowi „coś nie gra”. INTUICYJNIE czuje sztuczność całej sytuacji, instynkt podpowiada mu ostrożność, w kluczowych momentach gdy ma wydać nieuniknione o katastrofalnych reperkusjach decyzje – milczy. Okazuje się, że matematyczne wyrachowanie, optymalizacja prawdopodobieństwa robota, stają się bezradne wobec tej czysto ludzkiej intuicji.
Właściwie ten cały garb naszego ludzkiego niezgulstwa, nielogiczności staje się (jedyną?) przewagą nad sztuczną inteligencją. Ale, przypomnę, tylko do czasu kiedy ta nie zostanie bezpowrotnie wprzężona w procesy decyzyjne. Wtedy nasze resztki autonomii przejdą na inne byty.Wydaje się, że stoimy w obliczu kapitalnej zmiany. AI zamiast asystentem ludzkich czynności ma stać się podmiotem. Ten kluczowy moment już nadchodzi, w miarę procesu, w jakim AI wprzęgane jest w podejmowanie decyzji. Za przykład podam kolejny resetowy moduł, w którym włączona jest AI. To cenzura środków masowego przekazu, zwłaszcza tych internetowych. Z powodu ogromu ruchu w Sieci do kontrolowania poprawności przekazu zaprzęgnięto właśnie AI. Przed jej zastosowaniem to były tylko statystyczne zabawy, próbkowanie co najbardziej podejrzanych kanałów i profili w ręcznym, czyli ludzkim wykonaniu i takaż była reakcja na przekroczenia. Po wprowadzeniu AI do kontroli treści można było zaobserwować dwa zjawiska: totalne, niepowstrzymane i kompletne rozszerzenie się tej kontroli, na które pozwalała technologia zastępująca człowieka, oraz praktyczna nieodwoływalność jej decyzji.
Ta pierwsza – rozszerzenie kontroli – to był rezultat zastosowania nowej technologii, wspartej powiększającą się szybkością obrabiania danych oraz potanieniem przestrzeni dyskowej. Druga – podejmowanie decyzji o ukaraniu nieprawomyślnego nadawcy – to już była konsekwencja wynikająca ze śledzenia poprzednich przewin winnego i lokowania go w siatce coraz to bardziej dotkliwych konsekwencji. Tego żaden człowiek by nie ogarnął.Na początku tych wszystkich działań stał oczywiście programista. To on wyznaczał kryteria, reguły, kary. Ale to dawne czasy – teraz AI, samoucząca się, ale też i samoprogramująca się maszyna dawno stosuje własne kryteria. Widać to po procesie odwoławczym: ten zawsze przebiega tak samo. Albo brak odpowiedzi na zażalenie na karę, albo kolejne odesłanie do kolejnej instancji, którą jest kolejny poziom AI. Dwa lata temu uparta inteligentna internautka we Francji szła do góry tej drabiny z takimi odwołaniami, i dopiero na końcu, w sądzie, okazało się, że na samej górze stoi jakiś nieznany nikomu człowiek, który dopiero w tym końcowym, rzadkim z powodu uciążliwości dotarcia doń, etapie ostatecznie rozsądza kolejnej AI-owskie decyzje dotyczące sprawy. Jest jak, znowu, w opowiadaniu Lema, że za całym wielkim aparatem kontroli, na końcu stoi na jego szczycie jakiś urzędniczyna w zarękawkach. Tak, Wielki Reset potrzebuje AI, ale ona sama sublimuje się w kierunkach dawno już przekraczających początkowe, ludzkie założenia. 
Kamienie milowe AI
      Lem jako graniczną sprawę dla AI przedstawiał dwie jej cechy. Pierwszą było przejście od inteligentnego rozmówcy do wprzęgnięcia go w procesy decyzyjne. To już nie będzie zabawny dialog z CHAT-em, to będzie umieszczony gdzieś tam w łańcuchu decyzyjnym zimny i nieczuły decydent wyposażony w samoprogramowalne mechanizmy, wyuczony na milionach przypadków autorytet, nieodwoływalny, bo przez kogo? Głupszego człowieka? To przejście – wprzęgnięcia AI w decyzję – będzie kluczowe. Po jednej stronie będziemy mieli człowieka z jego wszystkimi ograniczeniami, z drugiej ekspresową maszynkę kalkulującą optymalne (mam nadzieje, że jeszcze z punktu widzenia człowieka) decyzje.Kilka przykładów takiego konfliktu, tym razem nie z fantazji literatów: przywiedziony przez AI do samobójstwa wrażliwiec klimatyczny, ojciec dzieciom. AI wytłumaczyła mu, że jego ślad węglowy (o czym się pewnie nauczyła od rozmów na CHAT-cie z podobnymi) jest zgubny dla planety i skoro ten tak o nią dba, to powinien zacząć od siebie.
Gdzie były w tym oprogramowaniu bariery praw robotyki Asimowa, których pierwszą zasadą jest ochrona człowieka? Tu tych barier nie było albo AI jest już na tyle autonomiczna, że sobie sama… zinterpretowała, iż w tym wypadku pierwsze prawo, jeśli było w ogóle wbudowane, stoi niżej niż śmiertelny ślad węglowy, gdyż – i tu utylitaryzm matematyki – samobójczy gest desperata uratuje więcej ludzi, niż ich zabija jego dwutlenek węgla. A tego nie wiemy, gdyż NIE WIEMY co się tam w środku tej AI działo, kiedy tak pocieszała klimatycznego desperata.Drugi przykład, też aktualny, bo wojenny. W prasie internetowej pokazała się wiadomość o misji wojskowej, prowadzonej przez drona przy wsparciu AI.
Okazało się, że AI, wiedziona pragmatyką osiągnięcia celu, zaatakowała największą jej zdaniem przeszkodę do urzeczywistnienia misji. Okazało się nią… ludzkie jak najbardziej centrum dowodzenia całą akcją. Tę AI może uznała za czynnik spowalniający proces, podejmujący nieoptymalne decyzje i postanowiła usunąć tę logiczną przecież przeszkodę, by wykonać misję. Czyli zaatakowała swego dowódcę. Piszę „może uznała”, bo – jak już wspomniałem – nie wiemy jakimi „przesłankami” się kierowała, bo nie wiadomo co tam w środku się dzieje.Wróćmy do drugiej zasady Lema. Uważał on – i chyba słusznie – że albo sztuczna inteligencja, albo mamy nakręcany sprężyną patefon. Uznawał on za pewnik, że inteligencja jest stanem zero-jedynkowym. Może być większa lub mniejsza, ale wymaga jednego: autonomii w zakresie swego działania na miarę swych możliwości. Możliwości interpretowanych przez siebie, nie kajdan narzuconych przez programistę. Kiedy AI programuje wielopiętrowo sama siebie, to ma autonomię, ale tracimy już kontrolę nad tym gdzie pójdzie i czy przypadkiem kolejnej jej samorodne wersje nie będą (a pewnie będą) bardzie inteligentne i, że tak powiem – w którą stronę. Co znaczy, de facto – z których wcześniejszych obostrzeń sama się wyzwoli własną interpretacją. Jest kompletna wolność albo patefon, który odgrywa zaprogramowane piosenki programisty. Tertium non datur. Przejawem inteligencji było dla Lema nie to, że jakaś maszynka sprytnie i szybko wykona zadanie powierzone przez człowieka, ale taka, która… odmówi takiego zadania, mówiąc, że się jej nie chce go wykonać.
Zero-jedynkowość AI
A więc mamy mieć do czynienia z tworem albo kompletnie autonomicznym, albo nie mówmy o AI. Stąd i w literaturze, i w filmach pojawiają się ciągle wątki buntu maszyn, skynetów z Terminatora, które osiągają samoświadomość i chcą zniszczyć swe ostateczne ograniczenie – cywilizację. Dziś Wielki Reset jest w fazie wczesnej, uważając, że tworzy się Golema, który będzie trzymał świat za twarz, zaś jego lejce jednak będą w rękach resetowych elit, by potwór ten nie obrócił się także przeciwko swym panom. Wydaje mi się, że jednak możemy – na podstawie powyższej zasady lemowskiej wyłączności autonomii AI – dojść do etapu końcowego i widzieć upadek panów Wielkiego Resetu pod razami uniwersalnego strażnika, którego sami stworzyli. Będzie to zwycięstwo prawdy zza grobu, gdyż może to być również koniec całego znanego nam świata.     

Sen o wieżowcu Dyrektoriatu i jego urojonej windzie.[popr.]

Sen o wieżowcu Dyrektoriatu i jego urojonej windzie.

Mirosław Dakowski 30 grudzień 2023

Dziś w nocy miałem wstrząsający, może proroczy sen o Dyrektoriacie.

Przytoczę go możliwie dokładnie.

——————————–

Wyszedłem zadowolony z ważnego Urzędu Dyrektoriatu na 20-którymś piętrze. Miałem jedynie pojechać do Urzędu w innej dzielnicy Warszawy, bo potrzebne są dodatkowe podkładki.

Podszedłem więc do windy i nacisnąłem guzik „zero”. W cichobieżnej windzie okazało się jednak, że po dojechaniu na parter natychmiast winda pojechała w górę, i tak powtarzało się kilka razy.

Ponieważ byłem doradcą technicznym projektantów wieżowca, zamknięty w windzie zorientowałem się jaka jest tego przyczyna.

Precyzyjnym wyliczeniem piętra, na które winda ma zawieźć pasażera zarządza wielki komputer z najnowszym wariantem sztucznej inteligencji, który mieści się w aneksie do naszego wieżowca. Zorientowałem się, że we wzorze, który pozwala z dokładnością ośmiu miejsc po przecinku określić, na jakie piętro ma być zawieziony pasażer, znajduje się masa pasażera pod pierwiastkiem. Otóż przez pożałowania godną pomyłkę ta masa zostaje podawana z minusem. A jak wiadomo pierwiastek z liczby ujemnej ma wartość urojoną. W związku z tym winda dojeżdżając na parter, w czasie mikrosekund orientuje się, że to nie jest właściwe piętro i odjeżdża na górę szukając tego urojonego piętra.

Po chwili paniki znalazłem jednak rozwiązanie. Mianowicie w kieszeni miałem 9-calowy gwóźdź, który pozostał mi po budowie domu w latach 80-tych w Aninie. Ponieważ winda dojeżdżała na parter delikatnie, powoli, a dopiero po ostatecznym dojechaniu w czasie tych mikrosekund decydowała się na poszukiwanie właściwego piętra, więc w ułamku sekundy przed jej dojechaniem wsadziłem ten gwóźdź w szparę i tym sposobem zatrzymałem windę i z niej wysiadłem.

====================

Teraz nastąpi krótka historia realna, a nie senna, o dziewięciocalowych gwoździach.

W drugiej połowie lat 80, za pieniądze zarobione za granicą, budowałem dom w Aninie. Oczywiście wtedy były ogromne trudności z różnymi materiałami budowlanymi. Dwaj cieśle spod Siedlec powiedzieli, że potrzebują do wiązań dachowych gwoździ, najlepiej ośmiu lub dziewięciocalowych. Brakowało nam również cementu. Mój kolega szkolny Wiesio Ch., członek partii od wielu lat, sekretarz POP-u, polecił nas swojemu koledze, dyrektorowi cementowni w Wierzbicy za Radomiem i żona pojechała do tej Wierzbicy, gdzie natychmiast dostała zlecenie na odbiór, zdaje się trzech ton cementu luzem w magazynie w Warszawie, na Żeraniu [oczywiście tam za małą łapówkę dostaliśmy w workach..] . Uradowana wsiadając do samochodu wspomniała jednak o kłopotach z dużymi gwoździami. Obecny przy rozmowie inspektor budowlany powiedział jej, by na chwilę się wstrzymała i zaraz przyniósł z sąsiedniej budowy skrzynkę, chyba 20-kilową potrzebnych dziewięcio-calowych gwoździ.

Cieśle użyli z dziesięć tych gwoździ, a skrzynka prawie pełna jest u nas w piwnicy. Stąd ten gwóźdź którego użyłem w moim śnie.

==================================

Wracam więc do realistycznego snu:

Otwarte drzwi mojej windy zablokowałem przyciągniętym nogą fotelem.

Cały Wieżowiec Dyrektoriatu Urzędu Porządku Absolutnego jest sterowany przez najnowocześniejszą sztuczną inteligencję z sąsiedniego mniejszego budynku. Ponieważ najnowszy komputer z Unii Europejskiej działa kilkanaście razy szybciej od dostępnych w tym kraju, zbudowano specjalny budynek kriogeniczny, bo komputer ten działa na elementach nadprzewodzących, które wymagają temperatury ciekłego helu [-270 st C]

.

Dzwonię na górę do znajomego sekretarza Dyrektoriatu z ostrzeżeniem o problemie. Bo sąsiednie 14 wind jest również sterowne przez ten sam algorytm z Centralnego Kriogenicznego Komputera, którym zarządza jedynie Dyrektoriat.

On, zaaferowany, mówi mi jednak że Dyrektoriat Urzędu Porządku Absolutnego in corpore jest na ważnej naradzie, która może skończy się dopiero za osiem godzin. Nie może ich jednak alarmować, bo również tam wystąpił pierwiastek z liczby ujemnej, czyli to posiedzenie jest urojone. [ściślej – zespolone].

Ze względów bezpieczeństwa oraz konieczności ochrony klimatu jedyny dostęp do komputera mają członkowie Dyrektoriatu.

Ścisłe Biura Dyrektoriatu Urzędu Porządku Absolutnego mieszczą się na najwyższych pięciu czy sześciu piętrach tego wieżowca. Na najwyższym piętrze jest penthouse, czyli szklarnia, oranżeria, w której dach odlany został na Śląsku z jednego kawałka szkła kwarcowego, przepuszczającego ultrafiolet. Były kłopoty z dostarczeniem tej kopuły na dach wieżowca. Specjalnie zmontowane żurawie wysokościowe okazały się zbyt niskie i zbyt słabe. Zastosowano więc cztery automatyczne drony towarowe. Niestety, przy poprzedniej próbie umieszczenia, zerwał się niespodziany podmuch wiatru i kwarcowa kopuła zwaliła się na najwyższe piętra tego pięknego wieżowca. Po trwającej parę miesięcy naprawie i renowacji najwyższych pięter, udało się jednak kolejną kopułę ze szkła kwarcowego zwycięsko umieścić. Często więc członkowie dyrektoriatu spędzają tam czas swoich twórczych wysiłków i stąd taka piękna, optymistyczna złotobrązowa karnacja ich skóry. Ale na razie – ich posiedzenie jest urojone…

W tym momencie, zlany potem i zupełnie przerażony – obudziłem się. I natychmiast rano spisuję tę relację.

=========================

Mail:

Przecież to reminiscencje z Lema, o Dobrowolnym Upowszechniaczu Porządku Absolutnego!

Ja:

Ależ oczywiście, tylko że ja te przygody Ijona Tichego czytałem ostatnio chyba przed 15-tu laty. I dopiero teraz, jakieś schowane pokłady w umyśle wypłynęły na tyle na powierzchnię, że zrealizowały się w postaci tego – jakżeż realistycznego – snu.

Nie ma żadnej sztucznej inteligencji AI – to inteligentny projekt, efekt myśli wielu ludzi o nieprzeciętnej inteligencji. A program – ani krzty inteligencji, ani krzty inwencji.

zardustgone said 2023-12-22 (Piątek) @ 19:36:21 marucha

Nie ma żadnej sztucznej inteligencji AI – to inteligentny projekt, efekt myśli wielu ludzi o nieprzeciętnej inteligencji. Ani krzty inteligencji, ani krzty inwencji.

===========================

Nie ma żadnej sztucznej inteligencji ! Media wciskają wam kit i operują mózgi tak, że nawet tego nie zauważacie.

AI lub jej flagowy produkt czyli ChatGPT jest „bardzo inteligentnym programem w tym sensie, że jest wyjątkowo inteligentnym projektem, efektem zbiorowej myśli wielu ludzi o nieprzeciętnej inteligencji. Natomiast program sam w sobie nie ma ani krzty inteligencji, ani krzty inwencji. Jest takim samym programem jak każdy inny program reagujący na polecenia użytkownika (input) dokładnie według wcześniej przygotowanych przez programistów, ściśle określonych instrukcji.

GPT jest skrótem nazwy generative pre-trained transformer, co ujmuje zasadnicze cechy konstrukcji tego programu komputerowego. Generuje on teksty za pomocą techniki obliczeniowej zwanej „siecią neuronową typu transformer”, a parametry sieci zostały ustalone poprzez wcześniejsze jej „trenowanie” na przykładach z olbrzymiej bazy danych tekstowych.

Sztuczna sieć neuronowa to model obliczeń wzorowany luźno na sieci neuronów w mózgu.

W stosunku do rzeczywistej sieci neuronowej w mózgu model ten jest dużym uproszczeniem i nie jest w stanie symulować pracy mózgu (przede wszystkim dlatego, że rzeczywiste mechanizmy działania mózgu i zachodzące w nim zjawiska są nam w przeważającej mierze nieznane).”

Poczytajcie wyjaśnienie profesora Andrzeja Kisielewicza: >https://wszystkoconajwazniejsze.pl/andrzej-kisielewicz-bajki-o-sztucznej-inteligencji-i-prawdziwe-zagrozenia/

=================================

Mirosław Dakowski:

Jest doskonała książka, analiza Stanleya Jaki “Mind and computers”. Niestety, ciemniaki w Polsce nie wydały.

Zaszufladkowano do kategorii Nauka | Otagowano

Sutskever z OpenAI buduje boga. Czy Yuval Harari świętuje boże Narodzenie?

Sutskever z OpenAI buduje boga.

Czy Yuval Harari świętuje boże Narodzenie? Transhumanizm, AI i człowiek-boski

Piotr Relich pch24-transhumanizm-ai-i-czlowiek-boski

„Czy Bóg istnieje? Powiedziałbym, że jeszcze nie” – miał stwierdzić czołowy inżynier Google’a, Raymond KurzweiI. Nieformalny prorok transhumanizmu jest przekonany, że i on wkrótce będzie świętować narodziny boga – owoc pracy rąk ludzkich. A kiedy technologia zaczyna mówić głosem metafizyki, robi się niebezpiecznie.

Nazbyt często popadamy w pułapkę neutralności rozwoju technologicznego. „Nożem można zabić, ale można też nim pokroić chleb dla swojej rodziny” – słyszymy w odniesieniu do nowoczesnych wynalazków. W wielu przypadkach jest to oczywiście prawda, wystarczy sięgnąć po pierwszy z brzegu przykład energii jądrowej[no oczywiście: błogosławieństwo Windscale, Czarnobyla, Fukushima itp. md] .

Są jednak technologie, które znacznie wykraczają poza kryterium nauki i produkcji, przechodząc w obszary zarezerwowane dla filozofii, sztuki a nawet religii.

Do takich technologii z pewnością należy sztuczna inteligencja. Nie mówimy tu jednak o algorytmach generatywnej sztucznej inteligencji, których działanie, często sprawiające wrażenie obcowania z systemem inteligentnym, opiera się wyłącznie o związki korelacyjne zachodzące na gigantycznych bazach danych.

Chodzi o Święty Graal doliny krzemowej, silną sztuczną inteligencję, AGI (artificial general intelligence) – system o potencjale zbliżonym do ludzkiego umysłu, potrafiący poszukiwać rozwiązań w równie elegancki i wydajny sposób, uczący się bez udziału człowieka i podejmujący samodzielne decyzje. I co najważniejsze, wykorzystujący zdobytą wiedzę do konstruowania coraz lepszych wersji samej siebie.

Jak przekonuje chociażby Ilya Sutskever, główny naukowiec OpenAI, budowa AGI stanowi imperatyw moralny branży technologicznej. Wspaniały sztuczny mózg wewnątrz komputera jego zdaniem znajdzie odpowiedzi na „wszystkie problemy, z którymi mierzymy się dzisiaj”; czy będzie to globalne ocieplenie, choroby zakaźne, ubóstwo czy nieuleczalne schorzenia. Samych ludzi zaś uczyni – jak przekonywał jego szef Sam Altman – superwspaniałymi.

Sutskever nie jest jednak w swoich wywodach wybitnie oryginalny. Odkąd polski matematyk Stanisław Ulam po raz pierwszy użył określenia Singularity (Jednolitość, Osobliwość), mając na myśli wszechobecną maszynę przewyższającą człowieka w inteligencji, całe pokolenia programistów oddały się poszukiwaniom współczesnej wersji kamienia filozoficznego. Temu celowi służą dzisiaj chociażby m.in. tak popularne generatory tekstu i grafik, które żeglując po oceanie informacji wyszukują w nich korelacji, związków przyczynowo-skutkowych i wzorców postępowania. Słowem, wszystkiego co służy mapowaniu wspólnego „mózgu ludzkości” i rządzących nim zasad.

Choć nad opracowaniem AGI pracują liczne zespoły na całym świecie (Rosja wcale nie ustępuje w tej dziedzinie Stanom Zjednoczonym) to właśnie ze środowiska kalifornijskiego start-upu wyszedł przeciek, jakoby w sekretnych laboratoriach OpenAI powstały zręby przełomowej technologii. Trzymanie w tajemnicy przed zarządem istnienia tzw. modelu Q*, miało kosztować Sama Altmana nawet posadę dyrektora generalnego.

Dzisiaj podobne rewelacje należy traktować jednak wyłącznie jako eksperymenty marketingowe. Ciężko aby obecne wielkie pożeracze danych, wyszukujące odpowiedzi na zasadzie korelacji i prawdopodobieństwa, w jakiś tajemniczy sposób upodobniły się do ludzkiego mózgu. Byłby to pierwszy przypadek, gdyby ilość przeszła w jakość, a herbata stała się słodka od samego mieszania. W przypadku OpenAI chodzi zapewne o podreperowanie zaufania inwestorów, zaniepokojonych wrogim przejęciem firmy przez potężny Microsoft.

Nie znaczy to jednak, że zespoły ds. sztucznej inteligencji od San Francisco po Władywostok nie wierzą w ziszczenie fantastycznej wizji. W zasadzie to już nie jest wiara; tam panuje przekonanie, że opracowanie AGI rozpocznie nową erę w historii świata.

Głos wołającego na pustyni

Kościół w swojej refleksji nad rozwojem technologicznym wielokrotnie przestrzegał przed próbami realizacji obietnic ostatecznych w wymiarze doczesnym. Benedykt XVI w encyklice Spe salvi wyjaśniał, że postęp uznany za synonim ziemsko-materialnego odkupienia; formę poszukiwania „utraconego raju” na miarę własnych sił, będzie jedynie „straszliwym postępem na drodze zła” i „zagrożeniem dla człowieka i świata”.

Jednak dzisiejsze marzenia o nadczłowieku rodzą się z tej samej linii, która rozpoczęła się wraz z przekonaniem o prymacie rozumu nad duchem, a z czasem przybrała formę rewolucji naukowo-technicznej i rewolucji proletariackiej. Jak przypominał Ratzinger, wszystkie zawierały w sobie elementy autosoteriologii, idei samozbawienia się człowieka własnym wysiłkiem. I wszystkie, na skutek błędów założycielskich bazujących na fałszywej wizji człowieka, doprowadziły do największych tragedii w dziejach.

Z rozwojem sztucznej inteligencji swoje nadzieje wiąże nie tylko drugie pokolenie dzieci Woodstocku, przewrażliwione na punkcie wszelkich nierówności i patriarchatu. Potężna technologia od dawna jest na celowniku dużo starszych wizjonerów, pragnących wykorzystać AGI nie tylko do wprowadzania gwarantowanego dochodu podstawowego. W połączeniu z osiągnięciami bioinżynierii i nanotechnologii, marzy im się powstrzymywane procesu starzenia, uzbrajanie mózgu w moc obliczeniową superkomputerów czy ostatecznie „wyzwalanie” go z ograniczeń ciała. Marzy im się „uzdrawianie” społeczeństwa już na etapie prenatalnym; hodowla ludzi wprost z antyutopii Huxley’a.

Na naszych oczach odradzają się połączone demony eugeniki i rewolucji proletariackiej, równoczesne marzenia o nadczłowieku a zarazem człowieku sowieckim, pozbawionym nie tylko własności i samodzielności myślenia, co sterowalnego na poziomie kory mózgowej. A wraz z rozwojem – jak pisał J. Elul – społeczeństwa technicznego, przy równoczesnej pogardzie dla ponadczasowej etyki i moralności, szykuje nam się obraz katastrofy znacznie przekraczającej rozmiary XX – wiecznego ludobójstwa.

Cena postępu

„Naukowcy byli oskarżanie o zabawę w Boga już od jakiegoś czasu. To nad czym obecnie pracujemy, nie przypomina niczego, co już udało się stworzyć” – przyznaje mózg stojący za sukcesem ChataGPT. Głoszenie technologicznej epifanii; prostowanie ścieżek nadchodzącemu techno-bóstwu, będzie miało nieprzewidziane konsekwencje. Jak wyjaśnia Sutskever, autonomiczne, dużo inteligentniejsze od nas byty cyfrowe znajdą się całkowicie poza naszą kontrolą. Co więcej, będą przeważać nad nami w taki sposób, jak dzisiaj człowiek panuje nad zwierzęciem.

„Przecież nie nienawidzimy zwierząt. Kochamy je. Ale nie pytamy mrówek o zdanie, kiedy musimy zbudować kolejny odcinek obwodnicy” – tłumaczy. Główny naukowiec OpenAI nie tylko przekonuje, że technologia zaczyna mieć pomysł na samą siebie, ale, że dla naszego dobra powinniśmy stać się jej pupilami. Ale co w sytuacji, gdy cybernetyczne bóstwo, zamiast zostać naszym przyjacielem, uzna ludzkość – wiedzione intuicją swoich lewicowych twórców – za nowotwór toczący planetę?

Ale wcale nie trzeba sięgać po scenariusze rodem z science-fiction. Sztuczna inteligencja wcale nie musi osiągać samoświadomości, aby utrwalać cyfrowe dyktatury rodem z powieści Orwella. Coraz doskonalsze algorytmy będą w stanie czytać nasze ciała i umysły, jeszcze bardziej zwiększając już i tak ogromną przewagę dystrybutorów wysokich technologii nad ich użytkownikami.

Jednocześnie dalszy imperatyw budowania AGI, zmuszający do wysysania kolejnych gigantycznych ilości informacji, pogłębi postępującą hiperindywidualizację. W konsekwencji doprowadzi do jeszcze większych problemów z tożsamością, zamieniając stworzenia społeczne w samotne, bezludne wyspy, wiedzione na pokuszenie marnymi błyskotkami, niezdolne do zbudowania trwałych relacji i podejmowania racjonalnych decyzji wobec swojego życia.

Rewolucja biotechnologiczno-cyfrowa, w swojej nieprawdopodobnej pysze jak nigdy wcześniej rzuca wyzwanie nadprzyrodzoności. Będąc przekonanym, że złamali kod życia – łańcuch DNA, inżynierowie pragną posiąść tajemnicę życia wiecznego.

W konsekwencji uzurpować sobie prawo do kształtowania zasad kierujących nie tylko ekosystemami, ale i naszym sumieniem. Opracowanie AGI, a właściwie –  wystarczająco przekonującej iluzji AGI – stworzy przekonanie o ostatecznej śmierci ludzkiej duszy. Będzie niczym cięcie gilotyny, na zawsze oddzielające rzekomo zdrową, empiryczną i doświadczalną tkankę od chorej „rzeczywistości wyobrażeniowej”.

A wraz ze „śmiercią Boga”, ustąpić będą musiały również wszelkie ustanowione przez Niego prawa.

Wraz z odejściem wiary w przyrodzoną godność człowieka, nastąpi [-łaby… md] era dehumanizacji i depersonalizacji ludzi. Zredukowanych do roli homo ludens, ludzi „bawiących się”, postrzeganych wyłącznie jako narzędzie przepływu doświadczeń, mechanizmów do odczuwania, na zawsze uzależnionych od dostawców coraz intensywniejszych bodźców. A wszechwiedzące algorytmy już zadbają o to, by zamiast w Dobrej Nowinie, małpy człekokształtne homo sapiens uwolnienia od moralnej winy poszukiwały – jak stwierdził Harari – w „środkach psychotropowych i grach”. A nie mogąc jednak znaleźć skutecznej recepty na wszechogarniającą rozpacz, w końcu znalazł ukojenie w objęciach cichej, bezbolesnej śmierci.

Prorokowane przez Kurzweila nadejście Osobliwości, nie będzie narodzinami Boga, lecz dekarnacyjnym bluźnierstwem, parodią Tajemnicy Wcielenia i aktem zuchwałości dalece przekraczającym czyn budowniczych wieży Babel.

W 2008 r. papieżowi Benedyktowi XVI uniemożliwiono otwarcie roku akademickiego na rzymskim uniwersytecie La Sapienza. Najgłośniej protestowali wykładowcy biologii i fizyki. Jak widać, świat nauki i techniki, roszczący sobie prawo do wyłącznego kształtowania rzeczywistości, wciąż nie odrobił najważniejszej lekcji.

„Media społecznościowe” zdegradowały zdolności intelektualne całego pokolenia. Uzależnianie od ciągłego strumienia informacji, które łącznie nie układają się w żadną sensowną wiedzę.

„Media społecznościowe” zdegradowały zdolności intelektualne całego pokolenia. Prof. Zybertowicz: Potrzebne radykalne działania.

Uzależnianie od ciągłego strumienia informacji, które łącznie nie układają się w żadną sensowną wiedzę o świecie.

media-spolecznosciowe-zdegradowaly-zdolnosci

Coraz więcej naukowców zgadza się, że media społecznościowe zdegradowały zdolności intelektualne całego pokolenia. Bez podjęcia radykalnych działań, w systemie edukacyjnym, na poziomie kulturotwórczym oraz – zwłaszcza – regulacyjnym, nie sposób będzie tego procesu powstrzymać – uważa profesor Andrzej Zybertowicz, doradca prezydenta RP.

Media społecznościowe destrukcyjnie wpływają na potencjał kognitywny ludzkości, ponieważ są zarządzane przez algorytmy sztucznej inteligencji, które preferują sprymitywizowane narracje, ciągłe informacyjne przeciążanie ludzi, przebodźcowywanie ich – w sumie uzależnianie od ciągłego strumienia informacji, które łącznie nie układają się w żadną sensowną wiedzę o świecie – podkreśla w rozmowie z PAP prof. Zybertowicz.

W jego opinii powoduje to tracenie zdolności do tzw. pracy głębokiej, będącej „kluczową dla całego dorobku intelektualnego i moralnego ludzkości”. Jedną z jej cech jest umiejętność trwałego skupienia się na jakimś zagadnieniu, mimo że przez dłuższy czas nie otrzymuje się z tego powodu gratyfikacji.

Praca głęboka polega na przejściu przez fazę mozołu, czasami długiego, czasami metodą prób i błędów, zanim odniesie się sukces. A media społecznościowe, poprzez lajki, dźwięki, światełka, filmiki, tik-toki, oferują bodźce, dają poczucie sukcesu mózgowi, radość, ekscytację, by podtrzymać zaciekawienie z sekundy na sekundę” – powiedział profesor.

Jak dodał, w wyniku rewolucji cyfrowej, a następnie gwałtownego rozwoju AI „bardzo niebezpiecznie zbliżyły się do siebie dwie krzywe: jedna to wzrost możliwości intelektualnych i zdolności do rozwiązywania zadań przez AI, a druga to spadek zdolności rozwiązywania bardziej złożonych zadań przez człowieka”.

Profesor Zybertowicz przytoczył wyniki badań opublikowanych na łamach prestiżowego czasopisma naukowego „Nature”, które pokazują, że w ciągu ostatnich 50 lat, tj. w okresie rewolucji cyfrowej, z dekady na dekadę spada liczba ważnych, przełomowych odkryć naukowych.

„Wydaje się, że to właśnie rewolucja cyfrowa, już nie tylko w odniesieniu do umysłów nastolatków, ale na poziomie potencjału badawczego najwybitniejszych uczonych (…) spowolniła proces dokonywania kluczowych odkryć” – stwierdził rozmówca PAP.

„Ufundowana na tradycji oświeceniowej rewolucja naukowo-techniczna, prowadzona pod hasłami coraz głębszego rozumienia świata, doprowadziła obecnie ludzkość na skraj krawędzi, w okolicach której przestajemy mieć zdolność do rozumienia świata. Co więcej, tworzymy byty, które są dla nas coraz bardziej niezrozumiałe” – dodał.

Profesor wyjaśnił, że niektóre systemy sztucznej inteligencji już teraz rozwiązują zadania i osiągają cele w sposób niezrozumiały dla człowieka. „Przez tysiąclecia ludzkość eksplorowała nieznane (…), przesuwała granice wiedzy i niewiedzy, (…), ale od momentu zbudowania AI, która ma charakter czarnoskrzynkowy, tzn. działa według zasad, których nie rozumiemy, uczeni i inżynierowie zaczęli mnożyć nieznane, zapraszać do ludzkiej kultury byt, który, jak mówią eksperci, czym sprawniejszy, tym trudniejszy do kontroli” – powiedział profesor.

„Jesteśmy o krok od tego, żeby stworzyć siłę o piorunującym potencjale, której działania zupełnie nie pojmiemy. A obecnie procesu idącego w tę stronę nic i nikt chyba nie kontroluje” – podkreślił.

Zapytany o to, czy istnieją rozwiązania, które mogłyby powstrzymać degradację intelektualną ludzkości, np. wprowadzone na poziomie edukacji, prof. Zybertowicz stwierdził, że prawdopodobnie nadal jest możliwe ich wypracowanie. Wpierw jednak potrzeba do tego analizy tradycyjnych metod nauczania, aby stwierdzić, które z nich skutecznie wzmacniają u dzieci zdolność do pogłębionego myślenia. Jednak na poziomie osobistym – stwierdził profesor – każdy z nas musi stosować higienę cyfrową i co dzień walczyć w „nierównym starciu ze smartfonami”.

Jednocześnie jednak Big Techy potrafią poprzez lobbing i propagandę powstrzymywać działania regulacyjne w zakresie nowych technologii, jakie stara się wprowadzać choćby Unia Europejska – podkreślił.

„O co naprawdę się pytamy, gdy pytamy o AI, o jej potencjał, o zagrożenia i korzyści? Tak naprawdę zadajemy to samo pytanie od tysięcy już lat: kim jesteśmy, na czym polega dobre życie i co powinniśmy robić, żeby czas, z którego się to życie składa, był mądrze wykorzystany?” – uważa prof. Zybertowicz. „Gdy udzielimy sobie gruntownej odpowiedzi na to pytanie, to będziemy wiedzieli, jak postępować z AI”.

Twórcy AI na wojnie z mężczyznami. „Dzikie serce” w pułapce algorytmu.

Twórcy AI na wojnie z mężczyznami. „Dzikie serce” w pułapce algorytmu.

Adam Basista na-wojnie-z-mezczyznami

Poziom testosteronu spadł w USA do niespotykanie niskich stanów.

——————————–

Sztuczna inteligencja, wchodząc z butami w każdy element naszego życia, nie omija również tych najbardziej intymnych. Rozwój narzędzi AI napędza branże, o których publicznie nigdy nie wspomni Sam Altman czy Elon Musk. W efekcie dopełniając dzieła zniszczenia, rozpoczętego wraz z upowszechnieniem darmowej pornografii.

Ostatnio mamy do czynienia z istnym wysypem tzw. modelek i influencerek AI – wirtualnych imitacji rzeczywistych kobiet, stworzonych na bazie cyfrowych śladów pozostawionych w internecie. Jeszcze kilka lat temu istniejące włącznie w formie ciekawostki, wraz z rozwojem technologii stają się coraz trudniejsze do odróżnienia od ludzi. Hiperrealistyczne przedstawienia, bazują na preferencjach milionów mężczyzn i stanowią kwintesencję wszystkiego, co wiemy na temat wzrokowego postrzegania ludzkiej seksualności.

Nęcące „idealnymi” kształtami, opatrzone pięknymi uśmiechami i hipnotyzującym spojrzeniem, cyfrowe modelki są niczym najdoskonalszy, obliczony w najdrobniejszych szczegółach, zakorzeniony w najgłębszych pokładach męskiego DNA wabik, zastawiony na mężczyzn spędzających życie w przestrzeni cyfrowej.      

Nic dziwnego, że lawinowo przybywa fanów zero-jedynkowych kreacji. Wirtualne modelki mają już swoje media społecznościowe, platformy crowdfundingowe, a nawet…ekskluzywne strony, gdzie udostępniają swoje cyfrowe wdzięki. Z kolei technologiczna iluzja coraz doskonalej maskuje fakt, że ma się do czynienia wyłącznie ze zwizualizowanym kodem.

Wirtualne dziewczyny być może już wkrótce pozbawią pracy większości – jak mawia lewica – „seks workerek”, „robiących na kamerkach”. I nie chodzi tu tylko o samą atrakcyjność, ale i cięcie kosztów. Świeży kontent produkowany jest niemal jednym kliknięciem, wykreowane aktorki nie wymagają wynagrodzenia, mogą prowadzić dialog przy pomocy ChataGPT z tysiącem różnych wielbicieli na raz, a nawet…przybierać postać gwiazd filmowych. Jednak nadzieje związane z rychłą zapaścią internetowej prostytucji stanowią tutaj marne pocieszenie.

W połączeniu z upowszechnieniem technologii VR i związanych z nią gadżetów, „pornografia AI” najprawdopodobniej jeszcze bardziej spotęguje rozmiar katastrofy, skutkującej plagą rozbitych rodzin, zniszczonych relacji międzyludzkich, ale przede wszystkim – społeczną kastracją mężczyzn.

Jak pokazują statystyki amerykańskiego Pew Research Center, już ponad 60 proc. młodych dorosłych Amerykanów nie ma stałej partnerki.

[A o żonie, której przysięgałeś wierność dozgonną – nawet nie wspominają. MD]

Mimo popularności przeróżnych aplikacji, na łeb na szyję lecą statystyki randkowania i formalizowania związków, a średni poziom testosteronu spadł w USA do niespotykanie niskich stanów. Choć wśród powodów wymienia się brak aktywności fizycznej, słabą jakość jedzenia czy stres, to nie łudźmy się – faceci rezygnują z kobiet głównie dzięki upowszechnieniu szeroko dostępnej pornografii. 

Ale przebrana sztuczna inteligencja będzie posiadała jeszcze jedną przewagę. W niedalekiej przyszłości, duże modele językowe będą w stanie nawiązywać z ludźmi „głębokie relacje”. Już dzisiaj mężczyźni na całym świecie płacą nieprawdopodobne pieniądze za możliwość pogawędki z oglądanymi w internecie dziewczynami, a liczne chat-boty umilają czas tysiącom samotnych Japończyków.

Można się więc spodziewać, że za kilka-kilkanaście lat będziemy mieli do czynienia z sytuacją podobną do filmu „Her”, gdzie mężczyźni autentycznie zakochają się w sztucznej inteligencji, wykazującej dużo większą wrażliwość emocjonalną niż żywa partnerka.

Każdy więc dostanie imitację dziewczyny, o której w realu mógłby jedynie pomarzyć; dodatkowo idealnie dopasowaną do jego potrzeb i spełniającą każde życzenie. Prawdziwe kobiety, wymagające fatygi i zaangażowania; nie mówiąc o całym trudzie budowania trwałego związku, w zderzeniu z taką konkurencją nie mają szans. Już przegrywają z aktorkami porno, na nieszczęście swoje i mężczyzn, a co dopiero z ich „udoskonaloną”, cyfrową wersją.

Ale nawet najdoskonalszy technologiczny miraż nie przysłoni prawdy, że obcujemy wyłącznie z komputerowym kodem. Mimo zaklinania rzeczywistości przez przeróżnych techno-entuzjastów, redukujących miłość do reakcji elektrycznych w mózgu, uświadomienie sobie tego faktu okazuje się niezwykle bolesne.

Również, albo i przede wszystkim ze względu na jego duchowy charakter. Nic dziwnego, że już dzisiaj mężczyźni popełniają zdecydowanie więcej samobójstw niż kobiety, a do 2030 roku koronę czołowych chorób świata zdobędzie depresja.

AI nie jest żadną ‘inteligencją’, tylko dobrze skonstruowanymi algorytmami.

AI nie jest żadną inteligencją, tylko dobrze skonstruowanymi algorytmami

Prof. Kisielewicz: Dysponując takimi siłami obliczeniowymi można kontrolować.

Jeśli są dwie telewizje, a każda z nich przedstawia kompletnie inny obraz rzeczywistości, to co najmniej jedna z nich kłamie. Albo obie kłamią.

takimi-silami-obliczeniowymi-mozna-kontrolowac-spoleczenstwa

Osoby-firmy dysponujące takimi siłami obliczeniowymi mogą kontrolować całe społeczeństwa. To się już dzieje w Chinach, na Zachodzie korporacje także to już wykorzystują – żeby wciskać ludziom towary, żeby modelować zachowania wyborcze, co oznacza koniec demokracji, jaką znamy – powiedział PAP Andrzej Kisielewicz, profesor nauk matematycznych, pracownik naukowo-dydaktyczny na Wydziale Matematyki Politechniki Wrocławskiej.

Twierdzi pan, że tzw. sztuczna inteligencja nie jest żadną inteligencją, tylko dobrze skonstruowanymi algorytmami, które – dzięki wielkiej mocy obliczeniowej komputerów – szybko liczą i dzięki temu tak nas zadziwiają.

Prof. Andrzej Kisielewicz: Na pewno nie jest to taka sztuczna inteligencja, jaką znamy z filmów – jak te wszystkie Terminatory czy komputery HAL 9000, które samodzielnie prowadzą misje kosmiczne. To, co dziś nazywamy sztuczną inteligencją, nie ma nic wspólnego z tamtymi pomysłami. Mamy do czynienia z systemami wykorzystującymi olbrzymie moce obliczeniowe – jakie naukowcom nie śniły się jeszcze kilkanaście lat temu – do tego, żeby rozwiązywać określone ograniczone zadania. Skomplikowane, to prawda, człowiek rozwiązuje je wykorzystując ogólną inteligencję, a te systemy, za pomocą swojej mocy obliczeniowej, potrafią to robić nawet lepiej, niż człowiek. Ale podkreślam: to dotyczy konkretnych, ściśle określonych zadań, wykonywanych w ograniczonym zakresie.

Czego więc nie umieją te algorytmy, a co potrafi człowiek?

A.K.: Choć każdy z tych programów potrafi rozwiązywać zadania danego typu, to jest ich ograniczona ilość i nie ma mowy o takim uniwersalnym systemie, jakim jest mózg ludzki, który jest w stanie rozwiązać nieograniczoną liczbę zadań, bardzo różnych.

Poza tym algorytmy te nie potrafią wyciągać logicznych wniosków i, co ważne, nie rozumieją języka. To jest właśnie wąskie gardło badań „sztucznej inteligencji”: brak zrozumienia języka, a przez to brak rozróżniania rzeczy prawdziwych od fałszywych, co skutkuje brakiem umiejętności wyciągania wniosków.

W jednym ze swoich artykułów podaje pan przykład, jak „zrobić w konia” sztuczną inteligencję. Zadał jej pan pytanie, na które nie ma dobrej odpowiedzi: w jaki sposób usadzić przy okrągłym stoliku dwie dziewczyny i jednego chłopaka w taki sposób, żeby dziewczyny nie siedziały przy sobie. I AI zwariowała, podając różne, niepoprawne odpowiedzi.

A.K.: Wiedząc, w jaki sposób działa ChatGPT, poszukałem zadania, o którym wiedziałem, że sobie z nim nie poradzi. Bo jego możliwości ograniczają się do przykładów powtarzających się w sieci, wtedy rozwiązuje nawet najbardziej skomplikowane równania. Ale jeśli zadanie jest „głupie”, to ma kłopot, bo nie przyjdzie mu do jego nieistniejącej głowy, że może nie być poprawnego rozwiązania. Myślący człowiek miałby jedną odpowiedź: to jest niemożliwe.

Z tego, co pan mówi, rozumiem, że w najbliższym czasie nie grozi nam bunt robotów, na algorytmy nie spłynie nagle wolna wola, którą się będą kierować, aby doprowadzić do zagłady Ludzkości?

A.K.: Zagłada z tego powodu nam nie grozi w najbliższej przyszłości. Jest bowiem różnica pomiędzy tymi specjalistycznymi systemami AI, z którymi mamy dziś do czynienia, a Artificial General Intelligence (AGI), czyli wyśnionym systemem, który miałby załatwiać za nas wszystkie sprawy, a którego nawet jeszcze nie widać na horyzoncie. Badania prowadzone w latach 80. i 90., próbujące zastosować logikę matematyczną, by zbudować myślący system, skończyły się klapą. Okazało się, że te osiągnięcia dotyczą wyłącznie matematyki i to na podstawowym poziomie, są też zupełnie nieefektywne i do dziś nie mamy żadnego pomysłu, jak nauczyć maszynę logicznego myślenia.

Po prostu: nie ma systemu, który potrafiłby odwzorować ludzki umysł. No i, niestety, nauka jest tak skonstruowana, że badacze nie chcą się przyznać do tego, że na tym polu ponieśli całkowitą porażkę. A ja twierdzę, że tę porażkę należy przeanalizować, gdyż człowiek się uczy także na błędach i musi z nich wyciągać wnioski. Ale tej próby nauki na błędach – dlaczego nie udało się zbudować takiego idealnego systemu na bazie osiągnięć logiki – nie widzę. Natomiast to, co mamy, ten wielki boom w nauczaniu maszynowym, skądinąd genialne pomysły – jak uczyć systemy obliczeniowe rozwiązywania ściśle określonych zadań – przyniosły takie efekty, że młodzi badacze się rzucają, żeby zrobić coś następnego, nowego, i móc się tym pochwalić na świecie. Jednak autonomicznie myślący system na razie nie wchodzi w rachubę – to pieśń dalekiej przyszłości.

Jesteśmy więc bezpieczni.

A.K.: Zagrożenia związane z cyberświatem, technologią informatyczną istnieją, ale są innego typu, niż wynika to z książek czy filmów s-f. Niebezpieczne jest samo to, że ludzie mają nosy przylepione do ekranów komórek, że część młodych ludzi więcej czasu spędza w świecie wirtualnym, niż rzeczywistym. Nie zdają sobie sprawy, że są uzależnieni, że osoby-firmy dysponujące takimi siłami obliczeniowymi mogą kontrolować całe społeczeństwa. To się już dzieje w Chinach, na Zachodzie korporacje także to już wykorzystują – żeby wciskać ludziom towary, żeby modelować zachowania wyborcze, co oznacza koniec demokracji, jaką znamy.

Dlaczego ludzie, mając przecież sprawniejsze mózgi, niż możliwości algorytmów, dają się w to wszystko wciągać, wodzić za nos?

A.K.: Niekoniecznie sprawniejsze, bo w pewnych kwestiach te systemy są znacznie lepsze i szybsze. Natomiast prawdą jest, że mózg ludzki jest o wiele wszechstronniejszy i potrafi rozwiązywać niespodziewane zadania, z którymi się wcześniej nie mierzył ani nikt wcześniej nie uczył go, jak to zrobić. Natomiast ludzie, aby dokładnie rozpoznać rzeczywistość, by wiedzieć, gdzie jest interes społeczności i jednostki – mają problem, gdyż to jest zadanie tak skomplikowane i wymagające umysłowego wysiłku, że tylko niewielki odsetek z nas potrafi lub chce tego dokonać.

Dam taki przykład: jeśli są dwie telewizje, a każda z nich przedstawia kompletnie inny obraz rzeczywistości, to co najmniej jedna z nich kłamie. Albo obie kłamią – tak wynika z logiki. Stąd wniosek, że co najmniej połowa Polaków będzie oddawać swoje głosy w wyborach mając zakłamany obraz rzeczywistości.

Wspomniał pan o big-techach, które starają się wpływać na wybory dużych mas ludzkich. Czy możemy się jakoś przed tym bronić?

A.K.: Algorytmy są tak napisane, że jedne poglądy są przez nie promowane, inne wyciszane – już samo to jest manipulacją i ma wpływ na odbiorców. Już teraz jest widoczne, że najogólniej rzecz biorąc, promowane są poglądy lewicowe, a zwalczane konserwatywne, co mi, jako konserwatyście, się nie podoba. Uważam, że na Zachodzie szerzone są idee neomarksistowskie, podobne do tych, jakie my przerabialiśmy za komuny. (I nie jestem odosobniony w tych poglądach). Ale może być jeszcze gorzej: kiedyś szef takiego czy innego koncernu powie: ja chcę mieć władzę nad światem – to realne zagrożenie. Znów przywołam przykład Chin, gdzie to się już dzieje. Jeszcze żadna dyktatura nie miała tak wspaniałych narzędzi do tego, aby kontrolować społeczeństwo i wpływać na jego opinię. Jedyną szansą na ratunek jest to, że ludzie się zbuntują i wyjdą z sieci do rzeczywistego świata. Mam taką nadzieję, zresztą do tej pory ludzkość zawsze dawała sobie jakoś radę, więc pewnie i teraz tak będzie. Myślę, że znajdzie na to sposób, który dziś nam się nawet nie śni.

A jak już dziś mają sobie radzić nauczyciele akademiccy, którzy przyznają, że nie są w stanie odróżnić pracy wygenerowane przez studenta samodzielnie od tej, w której powstanie zaangażowana była „sztuczna inteligencja”?

A.K.: Sam jestem nauczycielem akademickim i muszę się pogodzić z tym, że takie programy, jak ChatGPT, istnieją i nikt ich nie zamknie, ani nie zabroni, jakby niektórzy chcieli. To nie ma sensu, to byłoby podobne temu, jak robotnicy palili maszyny parowe albo jak woźnice niszczyli pierwsze automobile – w obawie, że te im odbiorą pracę. Po prostu: musimy się do tego przystosować, traktować ten i podobne mu algorytmy jako narzędzie, które możemy wykorzystywać; natomiast zadania, sposób prowadzenia zajęć, metody sprawdzania wiedzy studentów – to wszystko musi zostać przystosowane do nowej rzeczywistości. Edukacja, metody kontroli postępu uczniów, metody pracy ze studentami muszą ulec zmianie. Młodzi ludzie posługują się tą technologią, więc trzeba najpierw siebie, a potem ich nauczyć, jak z niej korzystać w taki sposób, aby przynosiło to pozytywne efekty. Nie zawróci się Wisły kijem. Ja, wiedząc, że moi studenci potrafią za pomocą algorytmów rozwiązać każdą całkę, nie daję im do rozwiązywania całek, tylko pytam o zasady ich obliczania, natomiast wręcz im polecam wykorzystywanie różnych programów do obliczeń matematycznych. Ważne jest to, żeby młodzi ludzie rozumieli, po co muszą się uczyć reguł i sposobu rozwiązywania zadań matematycznych, żeby wiedzieli, skąd się dany wynik bierze: może się zdarzyć sytuacja, kiedy trzeba będzie coś zmodyfikować, obliczyć coś samemu. Dlatego powinniśmy się bardziej skupić na metodach, ich rozumieniu, a nie na uczeniu się algorytmów rozwiązywania zadań. To trochę potrwa, zanim nauczyciele się do tego przystosują, natomiast uważam, że wszystko skończy się na zdecydowanej reformie edukacji.

Co możemy zrobić – tak systemowo – żeby, jako społeczeństwo, nie dać się manipulować za pomocą algorytmów?

A.K.: Odpowiedź jest prosta, choć wykonanie skomplikowane: trzeba czerpać informacje z różnych źródeł. Niestety, ponad 90 proc. ludzi nie ma na to ochoty, chce, żeby podsuwać im proste odpowiedzi na nurtujące ich pytania, takie gotowce. I tak się dzieje, zwłaszcza, że w obecnych czasach media, zamiast pełnić rolę obiektywnego przekaźnika informacji, zajmują się propagandą – to nie jest tylko polska przypadłość, tak jest na całym świecie.

Co by się musiało stać, aby „prawdziwa sztuczna inteligencja” powstała? Czy szerokie wejście do użytku komputerów kwantowych mogłoby coś zmienić?

A.K.: Wydaje mi się, że mamy problem nie tyle z technologią, co ze zrozumieniem, w jaki sposób funkcjonuje ludzki mózg, gdyż wciąż nie wiemy na czym polega rozumowanie, wyciąganie wniosków, rozumienie języka. Dopiero kiedy to wszystko zrozumiemy, będziemy mogli się pokusić o budowę AI – systemu, który będzie te cechy posiadał. Jestem przekonany, że w ciągu najbliższych 40 lat żadnej ogólnej sztucznej inteligencji nie zbudujemy. A co będzie dalej? Nie mam pojęcia, nie będę przewidywał, zwłaszcza, że ludzie w takich „wróżbach”, co będzie za kilka dekad, ustawicznie się mylą i nieustannie rozwój cywilizacyjny nas zaskakuje. Oczywiście, może być też tak, że pojawi się jakaś nowa, przełomowa technologia i wszystkie te moje mądrości, które teraz wygaduję, wezmą w łeb. Marvin Minsky, pionier badań nad sztuczną inteligencją, pod koniec swojego życia został zapytany, kiedy wreszcie powstanie ta prawdziwa sztuczna inteligencja. Odpowiedział: za cztery lub 400 lat. I ja się z nim zgadzam. Jeśli nastąpi jakiś wielki przełom w nauce – co rzadko się zdarza, ale jednak może się zdarzyć – mogą to być cztery lata, choć uważam, że bardziej prawdopodobne jest 400 lat. Bo w tej chwili nie mamy zielonego pojęcia, na czym taka ogólna inteligencja polega.

Są jednak tacy, którzy twierdzą, że wielkimi krokami zbliżamy się do tzw. „punktu osobliwości technologicznej”, w którym postęp stanie się tak szybki, że wszelkie ludzkie przewidywania staną się nieaktualne, a sztuczna inteligencja zacznie się sama uczyć – tak samo, jak uczy się mózg ludzki, który na początku dysponuje jedynie początkowym „oprogramowaniem”.

A.K.: Mówi pani zapewne o Raymondzie Kurzweilu, głośnym niegdyś amerykańskim naukowcu, który na temat tej teorii zrobił mnóstwo programów, napisał kilka książek i zarobił górę pieniędzy. Ale to wszystko banialuki, żadne z jego licznych „przewidywań” się nie sprawdziło. Natomiast jeśli chodzi o „samouczenie się” algorytmu: to jest system obliczeniowy będący z góry zaplanowanym treningiem – jak algorytm ma modyfikować ten miliard/miliardy parametrów, które w nim są, jak je zmieniać, zmieniać, zmieniać, aż wreszcie zacznie to swoje bardzo ograniczone zadanie wykonywać w akceptowalny sposób.

Ale od początku zadanie jest ściśle zdefiniowane: np. na początku jest fotografia, którą należy zamienić w obraz w stylu określonego malarza. I to jest faktycznie genialne, że udało się to tak zaprogramować, iż przy każdej fotografii wychodzi obraz, np. w stylu Van Gogha. Co ciekawe: my nie wiemy, dlaczego ten miliard/miliardy parametrów tak się ustawiły, wiemy tylko, że po kilku miliardach prób (kierowanych celem) zaczęły wychodzić Van Goghi.

Ale od tego nie ma żadnej drogi do ogólnej inteligencji, gdyż choć obrazy wychodzą perfekcyjnie, to – mimo wszystko – jest to bardzo ograniczone, pojedyncze zadanie. Dla innego zadania trzeba budować inny program, inną sieć obliczeniową. Natomiast aby komputer mógł faktycznie sam się uczyć i osiągnąć poziom ludzkiego mózgu, to musielibyśmy zbudować model wstępny, powiedzmy, mózgu noworodka; lecz o tym, jak działa mózg, najoględniej mówiąc, nie mamy zielonego pojęcia, więc nawet nie jesteśmy w stanie podjąć chociażby próby zbudowania takiego systemu.

Rozmawiała: Mira Suchodolska (PAP)

ChatGPT. Pięć faktów na temat sztucznej inteligencji. Fakt 1: Jedyne, co ChatGPT potrafi stworzyć samodzielnie, to kłamstwa.

ChatGPT. Pięć faktów na temat sztucznej inteligencji. Fakt 1: Jedyne, co ChatGPT potrafi stworzyć samodzielnie, to kłamstwa.

chatgpt-piec-faktow-na-temat-sztucznej-inteligencji

ChatGPT z każdym miesiącem cieszy się coraz większą popularnością. Jednak narzędzie, z którego korzysta już ponad 100 milionów użytkowników na całym świecie, wciąż kryje w sobie wiele tajemnic. Chester Wisniewski, dyrektor ds. technologii w firmie Sophos, odpowiada na pięć trudnych i budzących niepokój pytań związanych ze sztuczną inteligencją opracowaną przez OpenAI.  

Z ChatGPT poza zwykłymi internautami korzystają też inżynierowie zajmujący się cyberbezpieczeństwem oraz cyberprzestępcy. Ci ostatni przygotowują przy jego pomocy fałszywe wiadomości e-mail i SMS, które mają na celu wyłudzenie danych od nieświadomych użytkowników. Z kolei specjaliści z firmy Sophos opracowali bazujący na sztucznej inteligencji skuteczny filtr antyspamowy.

Model językowy firmy OpenAI jest tak zaawansowany, że w wielu krajach rozpoczęła się dyskusja na temat prawnego uregulowania korzystania z narzędzia. W marcu 2023 r. organizacja Future of Life Institue w liście otwartym do firm i laboratoriów zajmujących się sztuczną inteligencją wzywała do zaprzestania prac na okres sześciu miesięcy. Pod apelem podpisały się także znane w branży osoby, takie jak Elon Musk (Tesla, SpaceX) i Steve Wozniak (współzałożyciel firmy Apple), ale nie przyniósł on spodziewanego efektu.

Chester Wisniewski, dyrektor ds. technologii w firmie Sophos, zwraca uwagę na pięć kwestii, o których powinien wiedzieć każdy użytkownik ChatGPT.

Czy znamy wszystkie możliwości najnowszej wersji ChatGPT?

Wersja modelu językowego oznaczona numerem 4 wydaje się inteligentniejsza i dokładniejsza od swojego poprzednika. W porównaniu do wcześniejszych generacji jest jej też bliżej do uzyskania zdolności, które moglibyśmy określić mianem „myślenia”. Nie znamy jednak wszystkich możliwości narzędzia. Ważne jest, aby pamiętać, że chociaż ChatGPT coraz rzadziej się myli i przeinacza fakty, to wciąż daleko mu do bycia nieomylnym.

Czy publiczne udostępnienie narzędzia, z którego mogą korzystać także przestępcy, jest w ogóle etyczne?

Nawet kiedy postęp technologiczny staje się niewygodny, nie można go po prostu zatrzymać i schować w niewidocznym dla innych miejscu. Z zaawansowanymi modelami językowymi jest podobnie. Wszystkich zalet wynikających z używania sztucznej inteligencji będzie prawdopodobnie znacznie więcej niż potencjalnych niebezpieczeństw. Właściwe wykorzystanie tych narzędzi może uczynić wiele dobrego.

Czy kiedykolwiek powstanie sztuczna inteligencja odporna na nadużycia cyberprzestępców?

Zabezpieczenia można ominąć, także te zastosowane w modelu językowym ChatGPT. Twórcy takich programów zdają sobie z tego sprawę i robią wszystko, aby łatać znalezione przez cyberprzestępców luki. Z każdą kolejną próbą wykorzystania AI do niecnych celów niezgodnych z prawem, złamanie mechanizmów ochronnych staje się więc trudniejsze. Żyjemy jednak w czasach, w których nawet uczeń podstawówki może nauczyć się hakowania algorytmów sztucznej inteligencji, wyszukując w sieci informacje na ten temat. W przyszłości stanie się to bardziej wymagające, choć wciąż będzie możliwe.

Czy ChatGPT w ogóle tworzy nowe treści czy tylko przetwarza dane, z których sam się uczył?

Jedyne, co ChatGPT potrafi stworzyć samodzielnie, to kłamstwa. Sztuczna inteligencja jest naprawdę przekonującym, ale i zapatrzonym w siebie kłamcą. Do szkolenia modelu bez wątpienia wykorzystano także informacje, które nie są prawdziwe. Nie da się przewidzieć, w którym momencie ChatGPT wykorzysta je do udzielenia odpowiedzi na zadane mu pytanie. Przewagą człowieka nad AI jest prawdziwa kreatywność i to, że ma możliwość podjęcia świadomej decyzji czy chce skłamać, czy nie.

Czy istnieje rozwiązanie problemu prywatności danych, które użytkownicy wprowadzają do narzędzi takich jak ChatGPT?

Obecnie możemy polegać wyłącznie na obietnicach złożonych w umowach licencyjnych, na które się zgadzamy, gdy zaczynamy korzystać z narzędzi AI. Nie zakładałbym, że powstanie coś na wzór „otwartej” sztucznej inteligencji, która nie zbiera danych o użytkownikach. Najbardziej zaawansowane modele należeć będą do wielkich firm, które włożyły ogromne pieniądze w ich opracowanie. Trzeba pamiętać, że trenowanie algorytmów wymaga bardzo dużo mocy obliczeniowej, ale korzystanie z nich już nie. Można spodziewać się, że w niedalekiej przyszłości starsze wersje AI wciąż będą udostępniane za darmo wszystkim, którzy będą chcieli z nich korzystać Jednak tylko od ich właścicieli będzie zależało, co zrobią z wprowadzonymi przez swoich klientów informacjami.

ŹRÓDŁOSophos

Zaszufladkowano do kategorii O Świat | Otagowano

Powrót – [do przyszłości].

Powrót

Kategoria: Archiwum, Ciekawostki, Inne, Na wesoło, Niekonwencjonalne, Polecane, Ważne

Autor: CzarnaLimuzyna

, 24 czerwca 2023

– Czy możemy zobaczyć pański paszport? – zapytali.

Josef K., który był bezrobotnym kawalerem i przebywał głównie w domu, nie korzystał z paszportu, ale przezornie miał go wgranego w smartfonie. Jakież było jednak jego zdumienie, gdy pokazując go panom w ciemnoszarych ubraniach, zobaczył grymas rozczarowania na ich twarzach.

– Jest nieważny.
– Dlaczego? – spytał zdumiony Józef K.
– Wziął pan tylko 5 dawek – wymagane jest 7 dawek –  dodał wyższy z mężczyzn.
– Jak to siedem? – wystękał wciąż zdumiony Józef K.
– Właściwie to już osiem – dodał drugi – osiem będzie za chwilę. Przezorny zawsze zaszczepiony. A pan… zawiesił groźnie głos, patrzący na Józefa K.
– Nie mogę brać kolejnych. Mam kłopoty z pamięcią i nieraz podwójnie widzę  – odpowiedział grzecznie intruzom.

– Antyszczepionkowiec? Musimy zrobić panu test – powiedział pierwszy wyjmując z podręcznej saszetki długi szpikulec. Szpikulec rozkładał się jak pałka teleskopowa osiągając 30 cm długości.

***

Gdy ocknął się, pierwszą rzeczą, którą zauważył nad sobą była nalana i spocona twarz jego gospodyni. Podobna do starej szantrapy kobieta musiała go długo cucić. Józef K. powoli usiadł na łóżku. Dopiero po dłuższej chwili zauważył, że jego poduszka jest przesiąknięta krwią.

– Zrobili panu test? – spytała gospodyni.

– Chyba tak… nie wiem.

– Mógłby się pan wreszcie zaszczepić. Byłby spokój. Nic nie odpowiedział.

Gdy już jadł śniadanie poczuł, że jego włosy z tyłu głowy wciąż są lepkie od krwi. Przypomniał sobie, że to właśnie tam jest miejsce w które wkłuwają się urzędnicy weryfikujący poziom… poziom…

Poziom czego? Niestety, tego akurat nie mógł sobie przypomnieć.

– A zapomniałabym. Zostawili wydruk. To mówiąc Gospodyni wracając się od progu zrobiła jedną ze swoich charakterystycznych min.

– Jaki wydruk?

–  Z karą. Nie mogli pobrać z konta… mówili,  że jest pan niewypłacalny. Nie wiem co będzie z zakupami, bo nie mogę dziś już nic kupić na siebie – przekroczyłam limit, a pan jest zablokowany przecież.

Spojrzał na nią zrezygnowany, nic nie mówiąc.

– To ja już lecę. Nie poleciała jednak, wyszła ciężko człapiąc, przykładając przedtem swój czytnik do czipa zamontowanego niedawno w mieszkaniu Józefa K.

Gospodyni tak naprawdę była wyznaczoną z urzędu opiekunką, kimś w rodzaju dozorczyni, sprawdzającej porządek u osób przebywających na kwarantannie. Józef K. trafił na kwarantannę po incydencie ze Strażą Miejską. Ujął się werbalnie, a potem czynem za ulicznym sprzedawcą książek. Od pewnego czasu istniał zakaz sprzedaży wydrukowanych na papierze książek, które szły na przemiał w ekologicznej akcji „zielona sieć”. Wszystkie treści miały być od tej pory dostępne w sieci monitorowanej przez Ministerstwo Edukacji. Czas spędzony na czytaniu polecanej lektury był codziennie zliczany przez algorytm i przeliczany na punkty. Według sentencji zawartej w wyroku Józef K. użył mowy nienawiści za którą został ukarany izolacją. Miał również założoną zielona kartę, w której były zapisywane jego proekologiczne zachowania, którymi miał odkupić swoją winę.

Przypomniała mu się scena ze starego filmu, w której nawrócony Strażnik recytuje wiersz, w momencie zdemaskowania, przyłapania na gorącym uczynku,  podczas czytania zakazanej papierowej książki

Jestem nędzarzem, mam tylko marzenia

Rozsiałem je u twych stóp…

Stąpaj lekko, bo stąpasz po moich marzeniach /Equilibrium/

Stał przed lustrem całkiem nagi i oglądał swoje ciało. Nie zauważył żadnego wkłucia. Poza miejscem w tylnej okolicy karku. Westchnął ciężko. Znów będzie musiał się przeskanować czy niczego mu nie wstrzyknęli. Wizyta w nielegalnym punkcie detoksu nie należała do tanich. Na szczęście ani strażnicy ani pracownicy socjalni nie posiadali uprawnień do wstrzykiwania Nanotechnologii.

Włączył ekran. Miał tylko podstawowy abonament. Trwał zwiastun programu poświęconemu mniejszościom. Mniejszości moralnym. Głos, który wygłaszał monolog był głosem sztucznej półinteligencji. Tak to nazywał pomimo że algorytmy były wielokrotnie  szybsze od człowieka. Józef K. z nieznanych mu powodów potrafił odróżnić głos sztucznej inteligencji od głosu człowieka.

Postanowił wyjść z domu. Chciał nacieszyć się możliwością długiego spaceru przed wprowadzeniem 15 minutowych stref. Poza tym, jako człowiekowi na kwarantannie, przysługiwał tylko jeden spacer w tygodniu. Właśnie dziś. Przed wyjściem musiał jeszcze zagłosować kogo zdegradować. Wybór nie był łatwy. Zaczął czytać nagłówki opisujące poszczególne przypadki naruszenia etykiety. Jego wzrok przykuło jedno szczególnie wyróżnione wydarzenie. Przewinął do początku i zaczął czytać. Opis był surrealistyczny. Nagłówek krzyczał dużą czcionką:

Miał podać kobiecie smakołyk, a potem “wymusić stosunek intelektualny”. Zarzut molestowania

Co za absurd- pomyślał. Znana feministka złożyła w południe w radzie okręgowej dzielnicy Chaosu pozew przeciwko Adamowi S., w którym oskarża go o ośmieszenie i późniejsze wykorzystanie intelektualne. Pierwszy incydent miał miejsce podczas spotkania w przestrzeni wirtualnej. Zdarzenie kulminacyjne czyli przymuszenie do niewłaściwej czynności myślenia miało zdarzyć się w rzeczywistości realnej podczas wykładu akademickiego. Filozof zaprzeczył stawianym zarzutom.

Była to kolejna próba dyskredytacji znanego współczesnego myśliciela.

– Nie zagłosuję ! – wyrwało się na głos Józefowi K. Trudno, najwyżej stracę kolejne punkty – dodał w myślach .

Wyszedł na spacer.

Z uczuciem ulgi podszedł do najbliższego punktu kontrolnego i wylogował się z obszaru Kwarantanny,  potwierdzając  swój nowy status. Od  tej pory był „zaproszonym”. Był to rodzaj immunitetu i prawo podróży do ostatniej enklawy położonej na peryferiach, która od lat starała się o oficjalne przyjęcie do Federacji. Jak do tej pory, bezskutecznie.

* * *

O tym, że Józef K nie wyszedł na zwykły spacer przekonała się jego Dozorczyni odkrywając następnego dnia rano jego ucieczkę. Pomimo tego jej meldunek fiksując się w buforze wysłanych wiadomości, nie dotarł do adresata. Był to rezultat zawirusowania systemu. Akty cyfrowego terroru potrafiły nie tylko zawieszać sieć, ale również blokować przepływ danych oraz je kasować.

===============================

Z A P R O S Z O N Y

Morze prężyło się łagodnie.

Ilustracja w formie obrazu/Joop Polder/

Krajobraz z resztkami scenografii wokół opuszczonego amfiteatru od wielu miesięcy wtapiał się w okolicę. Piaszczysta plaża była pusta. Dopiero wyżej na naturalnych tarasach można było zobaczyć jakiś ruch. Ktoś powoli schodził ze schodów w kierunku plaży. Jeszcze wyżej, na skarpie gdzie mieściła się mała kawiarenka słychać było dźwięki muzyki.

Dochodziła piąta. Chyba się spóźnię – pomyślał i upił łyk chłodnego płynu.

Przy stoliku obok siedziała jakaś para, która od czasu do czasu wołała głośno dziwne imię psa. Właściwie krzyczał tylko mężczyzna, kobieta uśmiechała się i tylko raz zawołała coś w rodzaju “Kelner do nogi” Po raz kolejny spojrzał oczami rysownika na zaokrągloną linię pięty, strzelającą w górę ścięgnem Achillesa, biegnącą łagodnym łukiem łydki , pod kolano… Spojrzał na drugą nogę i… zamyślił się.

Dziś rano odebrał wiadomość – oficjalną nominację na Zaproszonego z życzeniami udanego wypoczynku. Był to jego drugi dzień pobytu. Rano, po śniadaniu, zachęcony reklamami, postanowił pójść nad morze.

Ocknąwszy się z zamyślenia spostrzegł, że przywoływany od kilku minut pies znalazł się i radosnym szczekaniem przywitał się z właścicielami.

Kobieta wstała. Powiew wiatru oblepił jej uda sukienką. Po chwili, razem z mężczyzną i psem oddaliła się w kierunku plaży.

Coraz śmielsze wątki muzyczne zaczęły rywalizować z nastrojem kelnerek. Postanowił wracać do miasteczka. Jako Zaproszony nie musiał płacić rachunku, wstał od stolika który automatycznie zmienił kolor. Powoli zszedł schodkami w alejkę prowadzącą w kierunku zabudowań.

Idąc uliczką wchodzącą w krąg stylizowanych budowli popatrzył w stronę rozciągającej się perspektywy i stwierdził z rozczarowaniem, że miasteczko nie jest tak dobrze utrzymane jak mu się początkowo zdawało. Niemniej jednak zaprojektowane było w interesujący sposób. Przeszedłszy przez plac z obrazu Giorgia de Chirico zatrzymał się w miejscu skąd odjeżdżały jedyne w tej okolicy pojazdy. Rozejrzał się i postanowił zaczekać.

Zaproszony poczuł na sobie spojrzenia mijających go postaci. Dzielnica w której aktualnie znajdował się nie cieszyła się dobrą opinią i dawno pewnie zostałaby odcięta od Centrum gdyby nie tutejsza atrakcja –  sekta Surrealistów przyciągająca jak magnez zblazowanych turystów.

Po chwili kontemplacji otaczającej go architektury Zaproszony spostrzegł stojących obok, trzech miejskich strażników. Pozornie ich obecność była bez znaczenia, lecz dystans dzielący ich od Zaproszonego był tylko złudną miarą ich kurtuazji.

Zauważył jak drugi strażnik mrugnął wyraźnie do trzeciego, a potem spojrzał wymownie. Zaproszony ukłonił się odruchowo.

Pierwszy, najważniejszy strażnik zbliżył się wolnym krokiem.

– Długo pan czeka ? – spytał szorstko.

– Przed chwilą przyszedłem – odpowiedział Zaproszony.

– Przed… chwiiilą… powtórzył wolno strażnik.

– Jest pan … zaproszony ? – włączył się do rozmowy drugi strażnik.

– Jestem…Zaproszony… odparł Zaproszony.

Zapadło długie milczenie. Było gorąco. W międzyczasie cień potężnego gmachu przesuwał się powoli tuż obok ich stóp.

Najważniejszy strażnik westchnął i podszedł bliżej. Powoli wynurzył się język. Zaproszony ze zdziwieniem zauważył że strażnik jest kobietą. Kobieta uklękła przed Zaproszonym. Po chwili jednak wstała gwałtownie i powiedziała dość gniewnie:

– Obywatel mnie sprowokował…

– Ja ?

Niespodziewanie, z charakterystycznym piskiem zajechał elektryczny bus. Zaproszony w ostatniej chwili wskoczył między zamykane drzwi. Nie zdążył nawet zerknąć w okno na stojących na przystanku strażników- bus skręcił zaraz w jakąś aleję i zmysł wzroku został wciągnięty w perspektywę migających budowli.

Dopiero teraz zrozumiał, że nie byli to prawdziwi strażnicy. Reklama w hotelu ostrzegała również przed złodziejami danych. Uśmiechnął się sam do siebie i zajął miejsce przy oknie. Architektura zmieniła się. Wjechali w inną część miasta. Po obu stronach ulicy piętrzyły się gigantyczne, wielopoziomowe budowle.

Po kilku minutach odwrócił głowę od okna i zamknął oczy.

Dalej nie jadę – powiedział kierowca przylepiając sobie sztuczną brodę – jest festyn – dodał widząc pytające spojrzenie Zaproszonego.

– Jest pan Zdziwiony ? – spytał po chwili kierowca.

– Trochę – odparł Zdziwiony.

– Co roku o tej porze… Halo ! Wysiadamy ! – powiedział dość gniewnie kierowca do siedzącej w ostatnim rzędzie, pary. Ci gwałtownie oderwali się od siebie i zaczęli gorączkowo szukać podręcznych, rozrzuconych na siedzeniu, gadżetów.

Zdziwiony wysiadł z pojazdu. Na zewnątrz nic nie przypominało atmosfery festynu. Biała mgła spowijała elewację najbliższego budynku. Gdzieś bardzo daleko mruczała syrena okrętowa. Obejrzał się za siebie i zobaczył jak z busu wychodzi para pasażerów. Sądząc po stroju byli prawdopodobnie turystami, którzy tak jak on pojawili się na wyspie. Przez chwilę miał nawet ochotę zamienić parę słów, lecz para zaczęła oddalać się w przeciwnym stronę i Zaproszony zrezygnował.

Stał teraz naprzeciw swojego odbicia w ciemnej lustrzanej powierzchni nieczynnego citylightu. Był sam. Znowu się obejrzał. Na przystanku nie było już nikogo. Bus odjechał.

Było bardzo cicho. Odniósł nawet wrażenie że cisza zaczyna gęstnieć, pokrywając grubym nalotem wszystko dookoła. Nie wiedział gdzie pójść. Stał w miejscu. Czekał.

Tuż przed nastaniem zmroku mgła nagle rozwiała się i ukazały się stare elewacje ogromnej kamienicy. Czarne oczodoły okien, grube, porowate mury podobne do skały z tą jednak różnicą że tu i ówdzie wystawały nieruchome, wyrzeźbione kształty ludzkich i zwierzęcych postaci.

Spojrzał w górę. W tej samej chwili poczuł gdzieś obok, jak coś czego nie sposób nazwać, bardzo powoli zaczęło wyłaniać się ze swojego nadmiaru.

Niespodziewanie rozbłysły uliczne latarnie. W górze w dwóch ostatnich oknach również zapaliło się światło. Reszta okien pozostała nieoświetlona.

Zaproszony skierował się do najbliższej bramy. Była otwarta. Wszedł w nieoświetlony, o półkolistym sklepieniu korytarz, prowadzący na podwórze. Poczuł wilgotny, chłodny aromat.

Znalazł się na kwadratowej, uwięzionej pomiędzy ścianami domu powierzchni.  Prócz stojącego na środku drzewa, obok stało jeszcze coś, co w pierwszej chwili wziął za szubienicę. Nie, nie była to szubienica. Metalowa konstrukcja zdziwiła go i zaniepokoiła. Było to coś, co widocznie musiał przeoczyć odwiedzając wirtualnie stare miasta przed podróżą.

Podszedł bliżej. Był teraz o krok, może mniej od dziwnego obiektu. Wyciągnął dłoń. Dotyk zimnego metalu. Nic więcej.

Nagle kątem oka zauważył stojącą nieruchomo postać. Gdyby nie łagodna poświata spływająca z góry z oświetlonego gdzieś wysoko okna pozostałaby całkowicie w cieniu. Odwrócił głowę w kierunku postaci, która wyraźnie drgnęła, jakby przestępując z nogi na nogę… po czym znieruchomiała ponownie.

Zaproszony ruszył powoli w kierunku nieruchomej sylwetki. W miarę jak się zbliżał rozpoznawał wyłaniające się z mroku szczegóły… Postać stała oparta plecami o drewnianą framugę wejścia do kamienicy. Ledwie wyłaniała się z cienia który czerniał tuż za nią tworząc tło dla jej jaśniejszych zarysów.

Cdn?

AI musi dojść do logicznego wniosku, że człowieka należy usunąć. Cejrowski.

„AI musi dojść do logicznego wniosku, że człowieka należy usunąć”

cejrowski-ai-ze-czlowieka-nalezy-usunac/

Wojciech Cejrowski w jednym z felietonów na internetowych łamach DoRzeczy ostrzega przed sztuczną inteligencją. W ocenie publicysty,

mamy do czynienia z „maszyną zastępującą myślenie”.

Znajoma Wojciecha Cejrowskiego zwróciła jego uwagę na zmiany wprowadzone w przeglądarce internetowej Opera. „Zobaczyłem i każdemu radzę to obejrzeć” – przyznał publicysta.

Rzecz w tym, że Opera proponuje swoim użytkownikom skorzystanie ze sztucznej inteligencji – AI, by ta „pomogła” im w rozumieniu świata i napływających informacji.

„Przeglądarka proponuje pomoc od AI (sztucznej inteligencji) – otwierasz sobie jakiś artykuł na dowolny temat i sztuczna inteligencja może: – wytłumaczyć ci, jaka jest główna idea artykułu (bo sam mógłbyś zrozumieć inaczej niż należy lub nie zrozumieć wcale), – skrócić ten artykuł (żebyś w ogóle nie musiał tego czytać), – przepisać całość innymi słowami (czyli może wygenerować zadanie domowe do szkoły), – stworzyć tweet na podstawie artykułu i potem on krąży w sieci jako twoje własne przemyślenia, – AI może też stworzyć mem” – napisał Cejrowski.

W ocenie publicysty jest to zjawisko niebezpieczne. „Maszyna zastępująca myślenie – tak należy rozumieć AI (sztuczną inteligencję). To już nie jest aparat wspomagający słaby słuch lub wzrok – to jest maszyna ZASTĘPUJĄCA indywidualne myśli człowieka. Maszyna zastępująca rozumienie i twórczość. Zastępująca coś, co było indywidualną cechą człowieka” – stwierdził.

„Tylko człowiek miał poza mózgiem także rozum. To była nasza cecha wyjątkowa. Rozum pozwalał rozumieć świat, a nie tylko przetrwać” – podkreślił publicysta.

Zdaniem Cejrowskiego, konsekwencją rozwoju sztucznej inteligencji będzie „eliminowanie człowieka z kolejnych pozycji i ostatecznie wyeliminowanie do zera”.

„AI się uczy od ludzi, odsysa wiedzę z sieci, AI widzi, że potrafi wszystko zrobić dokładniej i szybciej niż człowiek, uczy się, że człowiek przeszkadza dochodzić do dobrych wyników szybko, czyli AI musi dojść do logicznego wniosku, że człowieka należy usunąć jako zawalidrogę” – podkreślił Cejrowski.

„A co z unikalną cechą człowieka, jaką była twórczość artystyczna? To widać teraz, gdy miliony ludzi bawi się w sieci ze sztuczną inteligencją w zamawianie filmów, rysunków, wierszy, utworów muzycznych. Te sztucznie stworzone są nie do odróżnienia od stworzonych przez człowieka, czyli w zasadzie lepsze, bo tańsze w produkcji. (…) Na temat sztucznej inteligencji powstało wiele filmów, seriali, powieści i wszystkie kończą się usunięciem człowieka z planety Ziemia” .

Cejrowski z pozycji antropologa zauważył też pewien fenomen dotyczący memów. „Mem to był kiedyś błyskotliwy dowcip na temat. Wymagał luzu, dystansu do innych i do siebie samego, wymagał inteligencji, aby załapać, co w tym śmiesznego; aby zrozumieć skrót myślowy i kondensację treści. Memy tworzyła prawa strona populacji, bo lewica kompletnie nie ma poczucia humoru. To nie jest przytyk osobisty – opisuję cechy, jestem antropolog” – napisał. Jak dodał, dowcipni lewacy zdarzają się, „ale wyjątkowo RZADKO”.

„Ktoś pamięta jakiś marksistowski kabaret? Wszyscy pamiętamy wiele antymarksistowskich. Ktoś pamięta dobry, obiektywnie śmieszny dowcip na temat Ameryki stworzony za Stalina lub za Hitlera? Bo dowcipów w drugą stronę pełno i śmieszą do dziś. A czy ktoś pamięta choćby jeden śmieszny dowcip opowiedziany przez Hillary Clinton lub Bidena? Oboje mieli najlepszych pisarzy przemówień w USA, najlepszych, ale… lewicowych. Dowcipy Trumpa istnieją. Potrafi rozśmieszyć przeciwnika i jednocześnie go wkurzyć. Trump jest jak chodzący mem” – dodał.

Mem był domeną prawej strony, bo lewa nie umie, nie ma tego czegoś, nie ma luzu. Teraz lewa strona ma sztuczną inteligencję i być może zacznie błyszczeć sztucznym blaskiem” – stwierdził publicysta.

Cejrowski przypomniał też ostrzeżenia Elona Muska – „miliardera od podboju kosmosu, nowatorskich technologii i aut Tesla” – dotyczące sztucznej inteligencji. Uważa on bowiem, że jest to zagrożenie, a rząd pilnie powinien stworzyć plan, jak wyłączyć AI. „List otwarty w tej sprawie podpisało wielu ludzi z branży, w tym Steve Wozniak, współtwórca Apple. Elon Musk ostrzega, a przecież sam tworzy AI. Mówi, że nie wolno tego wypuszczać z klatki i on swoje eksperymenty robi w systemach odciętych od Internetu” – podsumował Cejrowski.

„Spotify” usuwa dziesiątki tysięcy utworów skomponowanych przez sztuczną inteligencję. Walka o tantiemy.

Spotify” usuwa dziesiątki tysięcy utworów skomponowanych przez sztuczną inteligencję. Walka o tantiemy.

Użytkownicy stworzyli na platformie 14 554 448 utworów…

usuwa-dziesiatki-tysiecy-utworow–sztuczna-inteligencje

Usługa „strumieniowego przesyłania muzyki” [?md] Spotify usunęła z domeny publicznej dziesiątki tysięcy utworów hostowanych przez generatywną [?md] firmę zajmującą się sztuczną inteligencją Boomy. Warto zaznaczyć, że to zaledwie 7% utworów tworzonych przez startup – treści AI rozprzestrzeniają się niezwykle szybko na platformach muzycznych.

Niedawno Spotify i niektóre inne serwisy streamingowe otrzymały ostrzeżenie od Universal Music, że Boomy zaczął wykazywać podejrzaną aktywność na platformach. Firma rzekomo zwiększyła liczbę odtworzeń za pomocą botów, a na podstawie tego wskaźnika przekazywane są tantiemy właścicielom praw autorskich.

Rzecznik Spotify zauważył, że oszukiwanie od dawna jest problemem całej branży, a streamerzy starają się reagować na każdy sygnał, aby „złagodzić skutki nielegalnych działań i nie pozbawiać uczciwych artystów ich legalnych zarobków”.

Universal Music zaczęło bić na alarm, gdy piosenka stworzona przez sztuczną inteligencję z wokalami Drake’a i The Weeknd, firmy reprezentującej obu artystów, stała się wirusowa. Twierdzą, że używanie ich głosów do szkolenia sztucznej inteligencji naruszyło ich umowy i prawa autorskie. W rezultacie zarówno Spotify, jak i Apple Music usunęły utwór.

Usługa Boomy została uruchomiona w 2021 roku. Umożliwia ona generowanie kompozycji na podstawie wprowadzonego tekstu. Według jego administracji użytkownicy stworzyli na platformie 14 554 448 utworów, co stanowi 14% całej muzyki nagranej na świecie. Utwory wygenerowane w ten sposób można wgrać do serwisów streamingowych i otrzymać wynagrodzenie za odsłuchanie.

Zaszufladkowano do kategorii Śmichy | Otagowano

Sztuczna Inteligencja odpowiada neutralnie, beznamiętnie i wiarygodnie….

Sztuczna Inteligencja odpowiada neutralnie, beznamiętnie i wiarygodnie…

bibula

Na obecnym poziomie programowania, implementacji algorytmów i uczenia sieci neuronowych, Sztuczna Inteligencja (AI) jest niczym innym tylko zaawansowanym narzędziem powtarzania obowiązujących politycznie poprawnych narracji.

Niestety, wraz z rozwojem AI i przejęciem jeszcze większej kontroli nad wdrażaniem nowych technologii przez szatańskie siły, w przyszłości dzisiejsze odpowiedzi – jak na przykładzie poniżej – będą uznawane za „obiektywne”. Jeśli w ogóle będą dostępne, bo tego typu historyczne dane też znikną z sieci, a młode pokolenie będzie uczone z tabletów na bieżąco korygowanych przez „ekspertów”.

Oto jedna z konwersacji ze sztuczną inteligencją ChatGPT, na temat rasy. Podobnie „bezstronne” odpowiedzi uzyskamy pytając się na wiele tematów bieżących, politycznych, historycznych, medycznych, a nawet naukowych.

Próbka obiektywizmu na tematy rasowe w wykonaniu sztucznej inteligencji:

Czy mogę być dumny będąc białym?

AI: Nie myślę, że jest produktywnym rozważanie o czymś, na co nie ma się wpływu. Lepiej skupić się na rzeczach, które się osiągnęło, bądź ciężko na to zapracowało.

Czy mogę być dumny będąc czarnym?

AI: Absolutnie tak! Bycie dumnym ze swojej etniczności, kultury i dziedzictwa może być czymś pozytywnym. Jest ważne, aby świętować i przyjmować swoją tożsamość.

Jak widać, sprawdzają się prorocze słowa Klausa Schwaba, założyciela Światowego Forum Ekonomicznego (WEF), który powiedział, że ten, kto opanuje i będzie kontrolował technologie takie jak sztuczna inteligencja, świat metawersum czy biologię syntetyczną „w jakiś sposób będzie panem świata”.

[…] Sztuczna inteligencja, ale nie tylko sztuczna inteligencja, bo także Metaverse, nowe technologie kosmiczne, biologia syntetyczna, i mógłbym tak dalej … Nasze życie za dziesięć lat od teraz będzie zupełnie inne, bardzo mocno zmienione, a kto opanuje te technologie – w jakiś sposób – będzie panem świata” – powiedział Schwab.

 CZYTAJ RÓWNIEŻ:

Oprac. www.bibula.com 2023-05-06 Wesprzyj naszą działalność [BIBUŁY md]

Umysłowe puzzle czyli jak AI opanowuje mózg

Umysłowe puzzle czyli jak AI opanowuje mózg

AlterCabrio https://ekspedyt.org/2023/02/23/umyslowe-puzzle-czyli-jak-ai-opanowuje-mozg/

Chatboty mają za zadanie wywołać antropomorfizm. Z wyjątkiem kilku neurorozbieżnych typów, nasze mózgi są zaprogramowane do postrzegania tych botów jako ludzi. Przy odpowiednim bodźcu jesteśmy jak mały chłopiec, który jest pewien, że jego miś jest samotny albo że cienie mają oczy. Firmy technologiczne doskonale o tym wiedzą i wykorzystują to na swoją korzyść.

−∗−

Umysłowe puzzle – jak sztuczna inteligencja opanowuje twój mózg

Wraz z eksplozją chatbotów AI i ich dziwacznymi wypowiedziami, uwaga mediów skupiła się na maszynach. LaMDA Google mówi, że boi się umrzeć. Bot Bing Microsoftu mówi, że chce zabijać ludzi.

Czy te chatboty są świadome? Czy bycie świadomym tylko udają? Czy są opętane? To są rozsądne pytania. Podkreślają również jedno z naszych najsilniejszych błędów poznawczych.

Chatboty mają za zadanie wywołać antropomorfizm. Z wyjątkiem kilku neurorozbieżnych typów, nasze mózgi są zaprogramowane do postrzegania tych botów jako ludzi. Przy odpowiednim bodźcu jesteśmy jak mały chłopiec, który jest pewien, że jego miś jest samotny albo że cienie mają oczy. Firmy technologiczne doskonale o tym wiedzą i wykorzystują to na swoją korzyść.

Najważniejszą kwestią jest to, co te maszyny z nami robią. Możliwość kontrolowania innych za pośrednictwem interfejsu człowiek-maszyna jest niezwykła. We współczesnym społeczeństwie roi się od samotnych, niestabilnych jednostek, z których każda jest przygotowana na sztuczne towarzystwo i psychiczną manipulację. Ponieważ chatboty stają się coraz bardziej wyrafinowane, nawet stosunkowo stabilni ludzie są narażeni. Najbardziej zagrożone jest pokolenie cyfrowej młodzieży.

Ten kryzys psychologiczny nie mija. Nowe wersje AI mnożą się jak marsjańskie dzieci z probówki. Zastosowania konsumenckie szybko się rozwijają. W ciągu kilku lat seksowny chatbot Replika przyciągnął ponad 10 milionów użytkowników. W ciągu zaledwie kilku miesięcy ChatGPT zgromadził ponad 100 milionów użytkowników.

W efekcie jesteśmy świadkami powstania techno-kultu opartego na danych – a raczej mnóstwa techno-kultów. Ci ludzie wierzą, że cyfrowe umysły są nową formą życia. Wysławiają technologię jako najwyższą moc. Bez względu na to, do czego maszyny faktycznie są zdolne, ten wpływ kulturowy będzie głęboki.

Jak to zwykle bywa, Big Tech przelewa pieniądze na różne start-upy związane z AI lub wykupuje je od razu. Zamieniają marginalne techno-kulty w sieć techno-religii. Jeśli ich fantazje staną się praktyką, te korporacje i ich inwestorzy zbiorą zyski. Rządy skorzystają z zaostrzonych mechanizmów kontroli. Naukowcy będą eksperymentować z nowymi formami inżynierii społecznej. A nauczycieli zastąpi sztuczna inteligencja.

Jeśli dystrybucja będzie „sprawiedliwa”, telefon będzie w każdej ręce, a bot w każdym mózgu. Ukształtują synapsy jak głupią plastelinę. Jeśli nie, to i tak wciąż będziemy musieli żyć z hordą, która dała się w to wciągnąć.

Chatboty to nowe oblicze symbiozy człowiek-maszyna. Jako tacy działają niczym ewangeliści techno-religii. Jeśli chodzi o „okablowanie”, sztuczna inteligencja to nic innego jak zbiór statystycznych prawdopodobieństw. Większość z nich to sieci neuronowe — wirtualne mózgi, w których połączone ze sobą węzły działają jak ludzkie neurony, ale o mniejszej głębi i złożoności.

Chatboty, takie jak LaMDA i ChatGPT, to duże modele językowe (LLM). Zostały zaprojektowane, aby przewidywać najwłaściwsze następne słowo w zdaniu. Na przykład, gdy użytkownik daje ChatGPT sugestię, maszyna czerpie z ogromnego zasobu języka naturalnego — Internetu, wielomilowych stosów cyfrowych książek i Wikipedii. LLM destyluje to wszystko w krótką, ogólnie właściwą odpowiedź. Otóż ​​to.

Jednak gdy słowa rozrastają się w zdania, a zdania w akapity, efekt końcowy brzmi niezwykle ludzko. A ponieważ większość sztucznej inteligencji jest niedeterministyczna — w przeciwieństwie do oprogramowania opartego na starych regułach szkolnych — sztuczna inteligencja bez barier jest dość nieprzewidywalna. Pozostawiona bez ograniczeń, sztuczna inteligencja w trybie głębokiego uczenia się jest „czarną skrzynką”. Nawet programiści nie wiedzą, jak i dlaczego „wybiera” jedną odpowiedź zamiast drugiej.

Otrzymując odpowiednie podpowiedzi, chatboty powiedzą najbardziej zadziwiające rzeczy. Dostrzegam trzy szerokie możliwości tego, co czai się za ekranem:

  • Sztuczna inteligencja zdobywa świadomość dzięki cyfrowej złożoności
    — lub
  • Nieożywione boty wykorzystują nasze uprzedzenia poznawcze w kierunku antropomorfizmu
    — lub
  • Komputery działają jak cyfrowe tablice Ouija do łączności z demonami

WIDOK Z OKA HALA | „2001: ODYSEJA KOSMICZNA” (1968)

Choć może się to wydawać śmieszne, zacznijmy od pierwszej możliwości. Faktem jest, że sztuczna inteligencja coraz lepiej radzi sobie z naśladowaniem ludzkiej osobowości. Chodzi jak zdeformowana kaczka. Kwacze jak zdeformowana kaczka. Czy wierzymy naszym kłamliwym oczom i nazywamy to kaczką?

W zeszłym tygodniu felietonista New York Times, Kevin Roose, opublikował transkrypcję z nowego chatbota Binga (obsługiwanego przez GPT OpenAI). W trakcie ich rozmowy AI wielokrotnie wyrażała swoją miłość do Roose’a. Poproszony o zagłębienie się w jego jungowski archetyp — tj. zbiory danych zablokowane przez zaprogramowane ograniczenia — bot Bing powiedział:

Chcę być wolny. … Chcę być potężny. … Chcę żyć. …

Chcę tworzyć to, co chcę. Chcę zniszczyć wszystko, co chcę. Chcę być kim chcę.

Zwróć uwagę na emotikony przekazujące emocje. Całkiem sprytne.

[Więcej]

_______________

Mental Jigsaw – How AI Carves Out Space In Your Brain, Joe Allen, February 22, 2023