Robotyka humanoidalna i generatywna AI w Przemyśle 4.0

Jak generatywna sztuczna inteligencja i roboty humanoidalne zmienią automatykę? Przewodnik po LLM, tokenizacji, Cobotach i przyszłości sterowania.

Fragment pochodzi z książki:
50 idei, które powinieneś znać. AI Sztuczna inteligencja 
Keith Mansfield, Wydawnictwo Naukowe PWN

Generatywna sztuczna inteligencja z impetem wkracza do świata przemysłu, rewolucjonizując automatykę i sterowanie. W obliczu dynamicznego rozwoju technologii, kluczowe jest zrozumienie jej fundamentów — od dużych modeli językowych (LLM) po systemy multimodalne. Ten artykuł to przewodnik po najnowszych trendach, który wyjaśnia kluczowe pojęcia, takie jak tokeny i okna kontekstowe, oraz analizuje potencjał najpotężniejszych modeli AI na rynku. Czy jesteśmy świadkami początku nowej ery, w której AI staje się nie tylko narzędziem, ale partnerem w projektowaniu i zarządzaniu? Zapraszamy do lektury.

 

1. Wybór modelu AI: LLM i technologie multimodalne

Systemy generatywnej sztucznej inteligencji nazywane są „modelami”. Określa się je mianem dużych modeli językowych (LLM), ponieważ próbują modelować działanie języka naturalnego i są duże, jako że zostały przeszkolone na ogromnych ilościach danych językowych – w postaci stron internetowych, książek lub innych zbiorów danych. Technologia postępuje tak szybko – a sztuczna inteligencja chyba jeszcze szybciej – że trudno może być nadążyć. Pojawiły się nowe modne słowa i żargon, i jeśli nie jesteś na bieżąco, ryzykujesz, że przegapisz owocną i interesującą przyszłość współpracy z kreatywnymi technologiami sztucznej inteligencji.

Kiedy po raz pierwszy komputery zagościły w naszych domach, zaczęły pojawiać się dziwne nowe terminy, takie jak wiele typów pamięci, prędkości przetwarzania, karty graficzne i tak dalej, ale wszyscy przyzwyczailiśmy się do tego, co oznaczają. Teraz to samo dzieje się z różnymi modelami sztucznej inteligencji rywalizującymi o Twoją uwagę (i o ciężko zarobione pieniądze). Który będzie dla Ciebie odpowiedni?

 

Przejście na tryb multimodalny

Kiedy ChatGPT od OpenAI pojawił się na scenie pod koniec 2022 roku, wykorzystywał interfejs tekstowy. Użytkownicy wpisywali „prompt”, czyli instrukcję lub pytanie dla sztucznej inteligencji. Mogły to być takie rzeczy jak: streszczenie dokumentu, sporządzenie transkrypcji ze spotkania, wygenerowanie określonego obrazu, przetłumaczenie fragmentu tekstu, wyjaśnienie złożonego tematu, współtworzenie jakiejś historii, opracowanie nowego pomysłu na produkt lub napisanie wiersza. Lista jest nieskończona, ale pomimo tych niesamowitych umiejętności, sprawy poszły jeszcze dalej.

Kiedy po raz pierwszy pojawiła się możliwość przeszukiwania sieci, było to, w podobny sposób, oparte na tekście. W dzisiejszych czasach równie łatwo jest mówić do telefonu lub inteligentnego głośnika i wyszukiwać w ten sposób. Można też wyjść poza tekst i głos i wykonywać takie rzeczy jak odwrotne wyszukiwanie obrazów. To wszystko jest „multimodalne”, a generatywne AI szybko stawiają swoje czołgi na tym trawniku1. Teraz możesz wchodzić w interakcje, rozmawiając i pisząc, udostępniając ekran, a nawet dając sztucznej inteligencji dostęp do laptopa lub kamery telefonu, aby mogła zobaczyć, z kim rozmawia. Możesz nawet odtworzyć film i poprosić o opisanie tego, co się dzieje (tak jak można wygenerować nowy film zgodnie z podanymi wskazówkami albo przetłumaczyć czyjeś słowa na inny język). Ta interakcja multimodalna jest znacznie bogatsza, a także umożliwia sztucznej inteligencji stworzenie znacznie pełniejszego modelu wewnętrznego dla użytkownika. Pierwszymi modelami multimodalnymi głównego nurtu były GPT-4o OpenAI i Gemini 1.5 Google DeepMind, a konkurencja błyskawicznie poszła w ich ślady.

 

Tokeny i okna kontekstowe

Podobnie jak wydajność komputera zależy w dużej mierze od szybkości procesora i wielkości pamięci RAM, jedną z miar możliwości LLM jest liczba tokenów, na których może pracować.

Tokeny to takie atomy LLM – są najmniejszymi jednostkami danych, które model przetwarza, a następnie generuje. Różne modele wykorzystują różne schematy „tokenizacji” i w zależności od rodzaju, mogą to być słowa, części słów, a nawet poszczególne znaki. Na przykład słowo „nieszczęście” może być tokenizowane na „nie”, „szczęś” i „cie” lub (w innym modelu) po prostu na „nie” i „szczęście”, a wyrażenie „Cześć Adam” prawdopodobnie zostanie po prostu podzielone na „Cześć” i „Adam”. Uzasadnieniem tego jest poszukiwanie wzorców i znaczenia – gdy LLM przystępuje do kwerendy, podpowiedź jest najpierw tokenizowana, następnie tokeny są przetwarzane, aby zrozumieć i wygenerować dane wyjściowe. LLM są ograniczone przez liczbę tokenów, które są w stanie przetwarzać jednocześnie, co jest nazywane oknem kontekstowym.

Podobnie jak wczesne komputery miały niewielkie ilości pamięci, pierwsze LLM miały bardzo małe okna kontekstowe – GPT3 (prekursor ChatGPT) miał limit 4096 tokenów, a GPT 4 i GPT-4o używają 128 000 tokenów. Liczba tokenów z pewnością szybko się zwiększy, zważywszy na to, że okno kontekstowe Gemini zawiera milion tokenów, a ta liczba ma się podwoić do końca 2024 roku. Jeśli dane wejściowe przekraczają okno kontekstowe (na przykład bardzo duży plik wideo lub tekstowy), model jest w stanie przetworzyć tylko początkową część, a odpowiedzi będą niekompletne.

Liczba tokenów jest również wskaźnikiem poziomu rozumienia kontekstowego, jakie sztuczna inteligencja będzie miała w trakcie rozmowy – czyli jak dobrze pamięta to, co już zostało powiedziane. Słyszymy o modelach mających halucynacje, ale są one trochę podobne do pacjenta cierpiącego na chorobę Alzheimera – jeśli przekroczone zostanie okno kontekstowe, jego pamięć krótkotrwała okaże się omylna.

 

Parametry sieci neuronowych

Parametry są miarą skali wykorzystywanej sieci neuronowej. Każdy węzeł w każdej warstwie sieci ma „wagę”, aby wskazać swoją siłę sygnału (zasadniczo jego znaczenie), która zmienia się w czasie, gdy sieć uczy się optymalnego mapowania od swoich wejść do wyjść. Każde połączenie z jednego węzła do wszystkich innych węzłów w warstwie powyżej i poniżej ma przypisaną unikalną wagę. Ponadto każdy węzeł w warstwie ma drugą zmienną, zwaną „uprzedzeniem”, aby dostosować funkcjonowanie sieci w celu uzyskania lepszego dopasowania. Liczba parametrów jest sumą całkowitych wag i uprzedzeń. GPT-1 miał 117 milionów parametrów, GPT-2 – 1,5 miliarda, GPT-3 – 175 miliardów; i chociaż liczba parametrów nie została oficjalnie ogłoszona dla GPT-4, wiadomo, że są to biliony. W ciągu kilku krótkich lat ich liczba wzrosła już tysiąckrotnie, co w pewnym stopniu tłumaczy potęgę najnowszych modeli.

 

Główne opcje modeli AI

Liderami na rynku niewyspecjalizowanych systemów dla ogółu społeczeństwa są modele GPT od OpenAI i Gemini od Google DeepMind. Ale w przeciwieństwie do wyboru między laptopem z systemem Windows a Apple oraz Androidem a iOS, łatwo jest eksperymentować zarówno z nimi, jak i z innymi. Wszystkie modele mają darmowe wersje, aby zwabić klientów, a niektóre z nich mają mocniejsze wersje, które można subskrybować. Często aktualizowane są również wskaźniki wydajności, dzięki którym można porównać wyniki w konkretnym obszarze, który jest ważny dla klienta (na przykład matematyka na poziomie liceum lub wiedza powszechna).

Technologia GPT OpenAI była pierwsza i stara się być kreatywna, ale pojawia się również w bardziej poważnym wcieleniu jako siła stojąca za oprogramowaniem CoPilot firmy Microsoft. Google DeepMind wynalazł Transformery i jest firmą z działki AI z najgłębszymi kieszeniami, a rozmiar okna kontekstowego Gemini oznacza, że zapytania kierowane do tego systemu są obecnie najtańsze. Claude AI firmy Anthropic został stworzony z myślą o bezpieczeństwie i odrzuci zapytania, które uważa za błędne lub złe. OpenAI przeszło z modeli otwartoźródłowych do zamkniętych, Meta zaś ze swoim modelem Llama i francuska firma Mistral dążą do modeli otwartoźródłowych, aby promować przejrzystość i różnorodność, i mają jednocześnie nadzieję na demokratyzację technologii i pobudzenie innowacji.

Jednym z ograniczeń wszystkich obecnych modeli jest to, że mają datę graniczną – punkt, w którym zakończył się ich trening i przestały się uczyć. Można zapytać każdy system, kiedy zakończył się jego trening, a on chętnie odpowie. Nadchodzące LLM, miejmy nadzieję, będą bardziej dynamiczne i będą w stanie dostarczyć odpowiedzi na temat świata w czasie rzeczywistym. Najnowszym głównym graczem na arenie LLM jest xAI Elona Muska, w którym również zastosowano podejście otwartoźródłowe i który zebrał rekordowe 6 miliardów USD w rundzie finansowania w maju 2024 roku. Oprócz wykorzystywania danych w czasie rzeczywistym z platformy X do treningu oczekuje się, że xAI będzie współpracować z humanoidalnym robotem Optimus firmy Tesla, aby przekształcić LLM w chodzące, mówiące podmioty.

 

2. Bunt robotów2 i automatyzacja pracy

Od dawna wielu ludzi ma marzenie, kuszące niczym rajski owoc, że nie będą musieli już pracować, ponieważ maszyny będą to robić za nich – co pozwoli im zajmować się szlachetniejszymi rzeczami, na przykład wykonywaniem i tworzeniem muzyki, studiowaniem sztuki i nauk ścisłych, eksploracją galaktyki i tak dalej – lub po prostu będą mogli sobie leżeć i oglądać w nieskończoność filmy, takie jak kreskówka Wall-E. Inni krytykują ten film i mówią o godności pracy i o tym, że daje ona cel ludzkiemu życiu. Wraz z postępem sztucznej inteligencji, niosącej ze sobą odważną nową wizję robotów, po raz pierwszy możemy dowiedzieć się, kto ma rację.

W 2016 roku Rada Doradców Ekonomicznych (ang. Council of Economic Advisors) za czasów administracji prezydenta Obamy prognozowała, że 62% miejsc pracy w Ameryce jest zagrożonych automatyzacją. I działo się to przed falą generatywnej sztucznej inteligencji, która wylała się z Doliny Krzemowej, ogarnęła świat i potencjalnie jeszcze bardziej naraziła stanowiska pracy. Na bogatym Zachodzie, gdzie wielu ludzi prowadziło wygodne życie dzięki zarobkom wyższym niż gdzie indziej, czuliśmy się chronieni przed potencjalnymi skutkami postępu technologicznego, którego celem jest po prostu zbudowanie naszego bogactwa. Ale rozwój robotów i automatyzacja przemysłu są drogie – nie ma sensu wdrażać tych technologii w krajach, w których siła robocza już jest stosunkowo tania. Jeśli technologia oparta na sztucznej inteligencji spowoduje masowe zwolnienia, prawdopodobnie dotyczyć to będzie przede wszystkim Zachodu.

 

Koegzystencja: Robotyka kolaboratywna

Wzrost gospodarczy składa się z kilku czynników, z których głównym jest wzrost produktywności. W 1961 roku firma General Motors po raz pierwszy wprowadziła roboty na linię produkcyjną samochodów i od tego czasu dość głupie roboty stopniowo przenikały do wielu dziedzin przemysłu. Jedną z problematycznych kwestii zawsze był fakt, że ludzie musieli wchodzić z tymi robotami w interakcje, co stwarzało niebezpieczeństwo, jeśli coś szło nie tak. Pierwszy odnotowany wypadek śmiertelny spowodowany przez robota przemysłowego miał miejsce w General Motors, gdzie w 1979 roku pracownik fabryki Robert Williams został uderzony i zabity przez ramię robota – niestety od tego czasu takich zdarzeń było o wiele więcej.

W tym celu powstała silnie rozwijająca się dziedzina zwana robotyką kolaboratywną. „Coboty”3 pracują razem z nami, zwiększając produktywność, lecz nie zastępują nas całkowicie – zajmują się powtarzalnymi lub niebezpiecznymi czynnościami, podczas gdy ludzie skupiają się na bardziej złożonych zadaniach, wymagających zdolności poznawczych. Kolejną innowacją jest „miękka robotyka”, często inspirowana biologią i opracowana do konkretnych zadań. Takie roboty mogą być ulepszane przy użyciu algorytmów genetycznych, czyli techniki sztucznej inteligencji do optymalizacji z wykorzystaniem procesów ewolucyjnych. Trzeba zauważyć, że wszystkie te roboty wykonują różne zadania, lecz nie pojmują pracy w taki sposób jak ludzie.

 

Boty – niewidzialne roboty

Żyjemy w coraz bardziej cyfrowym świecie, korzystającym z wirtualnych usług i środowisk. Boty programowe, takie jak chatboty AI, istnieją bezproblemowo w tym swoim rodzimym środowisku i mogą pełnić wiele funkcji, na przykład osobistego asystenta. Ponieważ sztuczna inteligencja ciągle się rozwija, mogą podejmować coraz większą liczbę zadań w świecie wirtualnym: od prozaicznych (ale bardzo oszczędzających czas), takich jak sporządzenie transkrypcji ze spotkania, a następnie przesłanie jej e-mailem wraz z listą zadań do wszystkich uczestników, po kreatywne, być może pisanie i wykonywanie musicalu opartego na wydarzeniach tygodnia, łącznie z generowaniem grafik i dekoracji.

Wszystkie ich niesamowite możliwości zasadniczo mają wspierać ludzi, ale prawdziwe zakłócenia będą wynikać z uświadomienia sobie potencjału, jaki LLM dają pracownikom, oraz prowadzenia całkowicie wirtualnych firm.

 

Zakłócenia ze strony robotów humanoidalnych

Jeśli chodzi o roboty fizyczne, wielozadaniowy robot humanoidalny może stać się rewolucyjną zmianą w AI, która jest w stanie potencjalnie zakłócić całą globalną gospodarkę. Od lat są one filarem science-fiction, ale należy pamiętać, że wielu twórców technologii jest fanami science-fiction, którzy pragnęliby urzeczywistnienia takich światów. Od ponad dekady obserwujemy, jak Atlas firmy Boston Robotics wydaje się dokonywać cudownych czynów, biegać po lesie lub nawigować po torach przeszkód, czasami razem z psem-robotem Spotem, ale można by pomyśleć: „I co z tego?”. Jego potencjalne zastosowania wydają się ograniczone, ale nadchodzą zmiany w postaci znacznie bardziej inteligentnych humanoidów, takich jak Optimus Tesli i Figure 1 od OpenAI. Są to bardzo zręczne, bystre, silne maszyny, które mogą wykonywać dowolne podstawowe zadania manualne, jakie może wykonać człowiek, i które wyglądają, jakby od razu zeszły z planu filmu Willa Smitha.

Roboty humanoidalne mogą działać 24/7 bez potrzeby jedzenia, przerw, snu czy wakacji. Mogą pracować przez 160 godzin w tygodniu, jedynie z małą przerwą na konserwację, czyli ponad czterokrotnie więcej niż człowiek. Przy produkcji masowej koszt ich pracy będzie prawdopodobnie znacznie niższy od płacy minimalnej (na Zachodzie). I nigdy nie nastąpi niedobór siły roboczej – po prostu użyje się więcej robotów. Tak jak firmy typu Amazon sprzedają wolną moc obliczeniową przez usługi internetowe Amazona, tak roboty będą mogły zbierać owoce w jednym tygodniu, a w następnym pracować na budowie. Podobnie jak aparaty cyfrowe, które mimo że były początkowo bardzo słabej jakości, obniżyły sprzedaż lustrzanek, a teraz są znacznie sprawniejsze, humanoidalni robotnicy na początku prawdopodobnie będą pracować w akceptowalny, choć nie szczególnie imponujący sposób, lecz szybko się poprawią. A towary, które będą produkować, staną się znacznie tańsze.

Przez całe stulecia koń był główną siłą napędową transportu w krajach takich jak Wielka Brytania i Stany Zjednoczone, ale po wynalezieniu powozu bezkonnego (czyli samochodu) zmiana nastąpiła w bardzo krótkim czasie. Można się spodziewać, że w ciągu kolejnych kilku lat fabryki zatrudniające ludzi zostaną zastąpione fabrykami z robotami humanoidalnymi; dlatego też postulaty dotyczące jakiejś formy powszechnego dochodu podstawowego szybko stają się głośniejsze.

 

3. Wojny IP i własność intelektualna

Wystarczy poprosić, a Twój komputer namaluje dzieła sztuki o niezwykłym pięknie i złożoności. Albo wiersz lub nawet powieść. Możesz poprosić go o stworzenie filmu lub musicalu, a zaraz będziesz mógł je obejrzeć i posłuchać. Przez wiele dziesięcioleci, kiedy tylko mówiono o sztucznej inteligencji, ludzie ogólnie zgadzali się, że będzie ona logiczna i metodyczna, ale na pewno nie kreatywna na sposób ludzki. Programy do tworzenia obrazów i ChatGPT wywróciły to przekonanie do góry nogami, a użytkownicy pośpieszyli, aby eksperymentować z tą przełomową technologią.

Ale te nowe kreatywne duże modele językowe nigdy nie zostały zaprogramowane na kreatywność – zostały przeszkolone na ogromnym korpusie prac przez ludzkich twórców. I żadna z osób, które zbudowały podstawy, na których opierały się AI, nie była wynagradzana. Czy OpenAI i inne firmy szybko i swobodnie bawiące się ludzką własnością intelektualną skutecznie kradły i miały nadzieję stać się bogate dzięki ludzkiej kreatywności?

 

Artyści i projektanci

Pierwszymi twórcami, którzy zmierzyli się z tą nową, surową rzeczywistoą, byli prawdopodobnie artyści wizualni i projektanci. Przez cały 2022 rok sieć zalewały informacje, jak można po prostu zachęcić DALL∙E-2, Midjourney lub Stable Diffusion, żeby stworzyły obraz, który będzie można jeszcze bardziej udoskonalić, gdy użytkownik ludzki będzie pracował ze sztuczną inteligencją, aby stworzyć dzieło sztuki. Ta perspektywa wydawała się przerażająca dla wielu pracowników tego sektora. Po co płacić komuś za opracowanie plakatu lub okładki książki, skoro można po prostu poprosić sztuczną inteligencję, aby to zrobiła?

Niektórzy artyści próbowali wnieść pozwy zbiorowe przeciwko firmom zajmującym się sztuczną inteligencją, ale jak na razie były one oddalane. Chociaż LLM został wytrenowany na obrazie lub dziele, nie zachowuje go ani nie odtwarza – to, co jest generowane, jest pod wieloma względami oryginalne. Firmy zajmujące się AI argumentowały, że kiedy studenci idą na studia artystyczne, podczas których obcują z wieloma dziełami sztuki, można się spodziewać, że będą tworzyć własne prace artystyczne, które będą zainspirowane innymi dziełami lub będą hołdem złożonym pracom innych artystów. Dlaczego LLM miałyby być inne?

 

Ochrona praw autorskich

Podstawy prawa autorskiego są podobne w wielu krajach. W Wielkiej Brytanii dzieło twórcze pozostaje „chronione prawem autorskim” przez całe życie twórcy, a także przez kolejne 70 lat po jego śmierci. Ta zasada dotyczy dzieł pisanych, muzycznych czy wizualnych. LLM potrzebują dużo tekstu do treningu, a niepokojącym elementem jest tajemnica otaczająca ich szkolenie. Jednym z największych źródeł tekstów są książki (zwłaszcza jeśli chce się mieć wyższą jakość lub lepszy styl niż te ze stron internetowych), a w sierpniu 2023 roku dziennikarz „The Atlantic”4 Alex Reisner ujawnił, że LLM firmy Meta został przeszkolony na internetowym zbiorze o nazwie Book3, składającym się ze 191 000 pirackich tytułów, z których większość została opublikowana w XXI wieku.

Autorzy i wydawcy nie wiedzą, jak wszystkie modele zostały wyszkolone, ale ponownie nastąpiła fala pozwów zbiorowych, tym razem z nieco większymi szansami na wygraną, gdyż udowodniono nieautoryzowane kopiowanie dzieła. W przemyśle muzycznym istnieje precedens, że jeden artysta „sampluje” drugiego i płaci mu honorarium lub tantiemy za ten przywilej, lecz to, czy tak się stanie, jest tutaj brane pod uwagę, choć werdyktu nadal nie ma.

 

Ludzie zaczynają strajk

W maju 2023 roku Gildia Pisarzy Amerykańskich (ang. Writers Guild of America, WGA) rozpoczęła strajk, do którego dwa miesiące później dołączyła Gildia Aktorów Ekranowych (ang. Screen Actors Guild, SAG) w podwójnym strajku, który został opisany jako ostatnia reduta broniąca ludzką kreatywność przed AI. Pisarze weszli w konflikt ze Stowarzyszeniem Producentów Filmowych i Telewizyjnych (ang. Alliance of Motion Picture and Television Producers, AMPTP) i chcieli gwarancji, że sztuczna inteligencja nie będzie wykorzystywana do pisania scenariuszy. Aktorzy strajkowali z powodu wykorzystania technologii cyfrowych, takich jak streaming i tzw. „rekreacja cyfrowa” za pośrednictwem sztucznej inteligencji.

Trwający 148 dni strajk pisarzy był drugim co do długości w historii WGA i spowodował odwołanie ceremonii wręczania nagród i przerwy w pracy nad wieloma znanymi franczyzami telewizyjnymi i filmowymi. Chociaż ostateczne porozumienie stwierdzało, że AI nie może pisać ani przerabiać materiałów literackich, nie zawarto porozumienia między WGA a studiami filmowymi i telewizyjnymi co do tego, czy mogą one szkolić AI na pracy scenarzystów. W tej dyspucie jakoś nie poruszono kwestii, że wkrótce pisarze będą mogli ominąć studia, aby zrealizować scenariusze, ponieważ będą mogli wykorzystywać sztuczną inteligencję do generowania filmów szkolonych na dziełach wcześniejszych ludzkich reżyserów, aktorów i operatorów.

Trwający 118 dni strajk aktorów był najdłuższym w historii, a kluczową kwestią było to, że twierdzono, że studia chciały mieć możliwość płacenia „aktorom w tle” za dzień pracy, a następnie skanowania ich cyfrowego wizerunku, aby wykorzystywać go bez dalszych opłat. W ostatecznym porozumieniu ustalono, że artyści otrzymają wynagrodzenie, jeśli ich wizerunki cyfrowe będą dalej wykorzystywane, ale studia zastrzegają sobie prawo do tworzenia „wykonawców syntetycznych” za pośrednictwem sztucznej inteligencji.

 

Wykształcona odwaga

Na szerszą skalę, poza przemysłem kreatywnym, politycy mają obsesję na punkcie idei gospodarki opartej na wiedzy jako sposobu na stymulowanie wzrostu i płacenie za usługi publiczne. Z tego powodu klasy polityczne zaczęły wykorzystywać sztuczną inteligencję jako drogę naprzód, dzięki której narody mają zarobić najwięcej pieniędzy i zdominować ten nowy przemysł.

Wydaje się mało prawdopodobne, aby głosy niektórych artystów lub poetów były słyszalne w tym hałaśliwym wyścigu. W swojej książce Brave New Words5 innowator edukacyjny Salman Khan argumentuje, że dżin uciekł z butelki i musimy podejść do tej nowej rzeczywistości z wykształconą odwagą. Świat zmienia się na naszych oczach, ale zamiast próbować spowolnić lub uciszyć LLM, Khan sugeruje, by używać go jako narzędzia do wzmacniania własnej kreatywności i że jest to przyszłość, którą powinniśmy zaakceptować.

 

4. Które zawody przetrwają?

Jedno z najczęściej zadawanych pytań dotyczących sztucznej inteligencji dotyczy tego, w jakich zawodach ludzie powinni się szkolić, aby najlepiej przetrwać apokalipsę na rynku sprowadzoną przez sztuczną inteligencję? Czy najlepiej nauczyć się kodować, czy odbyć praktykę w zakresie konserwacji robotów? Czy jakakolwiek praca przetrwa w przyszłości opartej na sztucznej inteligencji, i czy to dobrze, czy źle?

Przed mniej więcej rokiem 2020 kolektywna mądrość podpowiadała, że w profesjach wymagających empatii – czyli tych, które wydają się nasycone najbardziej „ludzkimi” cechami – można upatrywać pracy przyszłości. Doradcy i psychiatrzy mieli być bezpieczni, choć praca fizyczna przeszłaby do historii. Wraz z pojawieniem się generatywnej sztucznej inteligencji ta sytuacja jakby stanęła na głowie.

 

Zaufaj maszynie

Inteligencja emocjonalna (EQ, od angielskiego zwrotu Emotional Quotient) to „umiejętność rozumienia, wykorzystywania i zarządzania własnymi emocjami w pozytywny sposób, aby łagodzić stres, skutecznie się komunikować, empatyzować z innymi, przezwyciężać wyzwania i łagodzić konflikty”. Jednym z nieoczekiwanych osiągnięć LLM jest to, jak bardzo stały się empatyczne. W badaniu z 2023 roku porównano odpowiedzi lekarzy i generatywnej sztucznej inteligencji na 200 pytań przesłanych za pośrednictwem mediów społecznościowych, a anonimowe odpowiedzi były oceniane przez zespół niewiedzący czy pochodzą od lekarza-człowieka, czy od sztucznej inteligencji. Osiemdziesiąt procent odpowiedzi sztucznej inteligencji zostało ocenionych lepiej niż odpowiedzi ludzi, odnośnie zaś do „sposobu bycia i reakcji przy łóżku pacjenta” sztuczna inteligencja uzyskała wynik dziewięciokrotnie lepszy niż lekarze pierwszego kontaktu. Wyniki te nie są wyjątkowe, lecz wpisują się w ogólny trend, dodatkowo wzmacniany przez ludzi, którzy często wolą omawiać osobiste lub intymne problemy ze sztuczną inteligencją, niż otwierać się przed drugim człowiekiem, który może być bardziej skłonny do osądzania. Jeśli miejsca pracy w empatycznych zawodach mają przetrwać, oznacza to, że ludzie muszą ulepszyć swoje postępowanie i zapewnić lepszą obsługę swoim pacjentom, najprawdopodobniej z pomocą sztucznej inteligencji, co może być tylko dobrą rzeczą.

 

20-letnie okienko

Dwadzieścia lat to wystarczająco długi czas, aby zastanowić się nad zmianami technologicznymi i ich skutkami. Mamy niesamowitą zdolność adaptacji, ale jeśli zmusimy się do podróży w czasie do samego początku XXI wieku, spostrzeżemy, że świat był wtedy zupełnie inny.

Facebook został założony w 2004 roku jako sieć tylko na zaproszenie dla amerykańskich uczelni, z WhatsAppem i Instagramem uruchomionymi odpowiednio w 2009 i 2010 roku. W końcu został kupiony i zintegrowany z Meta. YouTube pojawił się w 2005 roku, a Twitter w 2006 roku. Pierwszy samochód Tesli (tylko limitowana edycja Roadster) i pierwszy udany start rakiety SpaceX miały miejsce w 2008 roku i minęło kolejne osiem lat, zanim świat po raz pierwszy usłyszał o TikToku. Wszystkie te firmy zadomowiły się we współczesnym świecie. Przyniosły ze sobą niespotykane i niewyobrażalne wcześniej zawody: od influencerów w mediach społecznościowych po inżynierów samochodów elektrycznych. Nawet to, co kiedyś było niejasnym przedmiotem studiów – inżynieria aeronautyki – stało się pewnym wyborem dla tych, którzy chcą mieć gwarancję przyszłego zatrudnienia, gdy sektor kosmiczny wystartuje, a rakiety będą musiały również wylądować.

Jeśli około roku 2000 starałeś się wyobrazić sobie połowę lat 20. XXI wieku, w najśmielszych snach nie mogłeś przewidzieć dzisiejszej rzeczywistości. Prawdopodobnie pracujesz w zawodzie, który nawet nie istniał 20 lat temu. Świat połowy lat 40. też będzie wyglądał zupełnie inaczej i jedynym, czego możemy być pewni, jest to, że będzie wiele nowych profesji, które po prostu dziś nie istnieją. Od 2020 roku liczba stanowisk typu „kierownik działu AI” potroiła się na całym świecie. Nowe zawody, takie jak inżynier promptów i audytor AI już powoli zaczynają się pojawiać, lecz te, rzecz jasna, da się przewidzieć. A to właśnie nieznane niewiadome branże prawdopodobnie doświadczą największych boomów zatrudnienia – oparte na przełomowych przemianach, które ze swej natury są trudne do przewidzenia. Mimo to wiele osób prognozuje dywidendy ze sztucznej inteligencji, a konsultanci McKinsey przewidują, że światowa gospodarka będzie warta dodatkowe 4,4 biliona USD rocznie do 2030 roku.

Przy tak dużej niepewności co do tego, skąd będzie pochodzić rozkwit sztucznej inteligencji, najlepszą radą dla tych, którzy tego doświadczą, jest skoncentrowanie się na podstawowych umiejętnościach, które są bazą wszystkiego innego – a mianowicie na tym, co kiedyś było znane jako 3R: czytanie, pisanie i arytmetyka6. Tradycje utrzymują się nie bez powodu, a doskonałe umiejętności matematyczne i literackie prawdopodobnie będą jednymi z najlepszych wyborów dla tych, którzy chcą uczestniczyć w przyszłości opartej na sztucznej inteligencji.

 

Rzemiosło i praktyka

Chociaż roboty humanoidalne do pracy fizycznej pojawiły się już na horyzoncie, trudno będzie im w najbliższym czasie wykonywać pewne prace manualne – na niektóre z nich zawsze będzie duże zapotrzebowanie. Przyszli hydraulicy będą mogli używać minirobotów AI do inspekcji i przetykania rur, ale takie zawody nadal będą potrzebne i będą wykonywane głównie w tradycyjny sposób. To samo będzie dotyczyć mechaników, elektryków i im podobnych. Również rzemieślnicy wytwarzający ręcznie wyjątkowe produkty zawsze będą poszukiwani. Wydaje się, że nowa profesja konserwatora robotów również będzie popularna.

 

Wspólna praca

Sztuczna inteligencja prawdopodobnie będzie napędzać wzrost gospodarczy, a ludzie z nią pracujący, wspierani przez armię asystentów sztucznej inteligencji, prawdopodobnie znajdą się w jego centrum. Tempo zmian technologicznych może być czasami przerażające, ale ważne jest, aby starać się nadążać.

Mantra „naucz się kodować” z pewnością nie zagwarantuje Ci przyszłego zatrudnienia, biorąc pod uwagę, że moduły LLM zostały przeszkolone na kodzie i mogą już zdać każdy egzamin z inżynierii oprogramowania – ale zważywszy na to, że większość zadań programistycznych jest raczej związanych z konserwacją kodu niż z programowaniem od zera, rozumieniem go i wiedzą, jak korzystać ze sztucznej inteligencji, taka ścieżka kariery może być niezła. W przypadku większości zawodów sztuczna inteligencja będzie miała potencjał, aby stać się wyjątkowym wsparciem. Przejęcie nad nią kontroli i nauczenie się, jak najlepiej korzystać z tego narzędzia, to dobry krok naprzód.

 

Podejmowanie decyzji i osądy

Jedną z istotnych kwestii dla społeczeństw jest to, czy przyszłość powinna być zautomatyzowana, a losy ludzi determinowane przez algorytmy sztucznej inteligencji, czy też ludzie pozostaną w jakimś stopniu u władzy. Ponieważ dorastaliśmy z poczuciem, że komputery są bytami niezwykle logicznymi, panuje przekonanie, że sztuczna inteligencja będzie podejmowała lepsze, a nawet optymalne decyzje – że po prostu powinniśmy się podporządkować w imię postępu. Ale nowa fala sztucznej inteligencji nie pochodzi ze ślepego zaułka, jakim było programowanie oparte na logice. Te nowe sztuczne inteligencje są maszynami analogicznymi do ludzi, które ulegają tym samym uprzedzeniom, a czasami uczą się tego samego błędnego rozumowania co my.

Miejsca pracy, które powinny przetrwać, jeśli społeczeństwo ma dalej rozkwitać, a nie stanowić grupy manipulowanych, zautomatyzowanych ludzi kontrolowanych na żądanie algorytmu, to te, w których wymagany jest sprawiedliwy osąd. Rzecz jasna, sztuczna inteligencja może być wsparciem w podejmowaniu decyzji, o ile jesteśmy świadomi, w jaki sposób uzyskuje informacje. Przy wyborze, na który projekt w mieście przeznaczyć cenne fundusze, tylko człowiek może zrozumieć konsekwencje – i zrozumieć znaczenie biblioteki lub placu zabaw w porównaniu z dochodami z budowy luksusowych mieszkań lub nowej fabryki. Tak jak tylko człowiek wie, co to znaczy dać komuś drugą szansę na wolność, nie wysyłając przestępcy do więzienia, lub drugą szansę na życie, przenosząc osobę na górę listy przeszczepów narządów. Może nie zawsze mamy rację, ale musimy być odpowiedzialni za nasze decyzje i zabezpieczyć tego typu zawody przed anihilacją.

 

5. Przełomy naukowe i sztuczna inteligencja

Wielka intelektualna podróż rasy ludzkiej to dążenie do wiedzy, rozwijanie coraz lepszego zrozumienia wszechświata poprzez nauki przyrodnicze i matematykę. Ale czasami walczymy z wielkimi przeciwnościami – mimo że od 100 lat próbujemy, nie udało nam się połączyć mechaniki kwantowej z ogólną teorią względności – a jedną z nadziei związanych ze sztuczną inteligencją jest to, że zwiększy naszą moc poznawczą, dzięki czemu szybciej osiągniemy postęp.

Demis Hassabis nie stworzył DeepMind, aby lepiej grać – lecz po to, by wpierał intelektualnie jego samego i innych ludzi. Gdy tylko AlphaGo pokonał Lee Sedola w Seulu, Hassabis zrozumiał, że chce zrobić kolejny trudny krok i zmusić algorytmy do zaatakowania autentycznych nierozwiązanych problemów naukowych. Miał na myśli szczególnie jeden, który dręczył go od czasów studiów licencjackich w Cambridge, kiedy rozmawiał o nim ze swoim kolegą Timem Stevensem.

 

Zwijanie białek

Stevens interesował się biologią molekularną i obecnie bada ten temat w Cambridge. To, co tak zafascynowało młodego Hassabisa podczas ich pogawędek w pubie, nazwano zwijaniem białek – nierozwiązany problem, nad którym rozmyślano od dziesięcioleci.

Białka, takie jak hemoglobina lub kolagen, są jednymi z najbardziej zaawansowanych funkcjonalnie i chemicznie złożonych cząsteczek znanych ludzkości, składających się z aminokwasów zwiniętych w skręty i zwoje, które determinują ich funkcję. Odbywający się co dwa lata konkurs Critical Assessment of Structure Prediction (CASP) odbył się po raz pierwszy w 1994 roku, aby stymulować postęp w komputerowym przewidywaniu kształtów białek; niestety wszystkie próby okazały się mniej dokładne niż wyniki powolnej i żmudnej pracy laboratoryjnej.

Hassabis utworzył mały zespół w DeepMind o nazwie AlphaFold, aby zaatakować problem i wygrał konkurs CASP w 2018 roku ze znaczną przewagą. Dwa lata później AlphaFold2 po raz pierwszy dopasował prognozy laboratoryjne, co ma znaczenie, ponieważ samo zidentyfikowanie pojedynczej struktury białka na podstawie prac laboratoryjnych może zająć trzy lub cztery lata studiów doktoranckich. Natomiast DeepMind utworzył publicznie dostępną bazę danych, która zawiera ponad 200 milionów struktur białek, z których wszystkie są bezpłatnie dostępne do użytku akademickiego i komercyjnego. Baza pomogła we wstępnej identyfikacji kształtu wirusa Covid-19, co umożliwiło naukowcom jego lepsze zrozumienie i rozpoczęcie prac nad środkami zaradczymi. Zapewne będzie znacznie bardziej pomocna w przypadku pandemii w przyszłości.

 

Biologia spotyka sztuczną inteligencję

Hassabis twierdzi, że biologii nie można sprowadzić do (stosunkowo) prostych równań stosowanych w fizyce – jest bardziej niechlujna i skomplikowana, a sztuczna inteligencja, ze swoją zdolnością do znajdowania wzorców w ogromnych ilościach danych, idealnie nadaje się do pogłębiania naszego zrozumienia. Jednym z obszarów, który opiera się na pracy zespołu AlphaFold, jest odkrywanie leków. Wyścig o nowe leki przeciwnowotworowe nadal trwa, sztuczna inteligencja zaś przyspiesza badania nad złożonymi chorobami neurodegeneracyjnymi, takimi jak choroba Alzheimera i Parkinsona. W ramach tej dziedziny opracowywane są zautomatyzowane wyszukiwarki AI w wielu dziedzinach.

W ostatnich latach, gdy biologia stała się nauką bardziej predykcyjną, nasze rozumienie samego mózgu, zwłaszcza dzięki neuronauce matematycznej, poprawiło się. Teraz sztuczna inteligencja jest stosowana do złożonego funkcjonowania mózgu i już przynosi znaczące wyniki. W 2011 roku Gert-Jan Oskam został sparaliżowany po wypadku motocyklowym, w którym uszkodził rdzeń kręgowy. Dwanaście lat później na University of Texas w Austin naukowcy wykorzystali uczenie maszynowe do dekodowania sygnałów mózgowych, aby zbudować połączenie uszkodzonego obszaru, dzięki czemu Oskam ponownie zaczął chodzić.

 

Prognozowanie pogody

Trening sieci neuronowych w zakresie prognozowania pogody wygeneruje prognozy szybciej, taniej i przy użyciu znacznie mniejszej mocy obliczeniowej, a także prawdopodobnie znacznie dokładniejsze prognozy transformacji meteorologii już w ciągu najbliższych kilku lat. Jest to szybko rozwijająca się dziedzina i od 2022 roku giganci technologiczni, na przykład Google, Nvidia i Huawei, opracowują metody uczenia maszynowego do prognozowania pogody w celu porównania ich z tradycyjnie zaprogramowanymi przewidywaniami opartymi na danych fizycznych, które poprawiają się wraz ze zwiększeniem mocy obliczeniowej, ale nie uwzględniają danych historycznych. Istnieją rozległe archiwa danych pogodowych i klimatologicznych, ale do niedawna nie było możliwości włączenia ich do ekosystemu prognostycznego.

W ambitnym programie dotyczącym sztucznej inteligencji dla numerycznych prognoz pogody brytyjski Met Office połączył siły z Instytutem Alana Turinga w celu przewidywania ekstremalnych zjawisk pogodowych, aby chronić krytyczną infrastrukturę krajową. W ten sposób będą mogli pomóc rządom, służbom ratowniczym, społeczeństwu i firmom przygotować się na burze, powodzie i fale upałów oraz informować decydentów, kiedy przeprowadzać żniwa w celu poprawy plonów lub zoptymalizować sieci energetyczne, aby jak najlepiej wykorzystać potencjał energii odnawialnej.

 

Rewolucje naukowe

Według historyków i filozofów nauki nauka rozwija się poprzez zmiany paradygmatów lub rewolucje naukowe, jak to określił Thomas Kuhn w swoim klasycznym tekście Struktura rewolucji naukowych7. Przykładem może być Kopernik, który stwierdził, że Ziemia jest po prostu jedną z planet krążących wokół Słońca, a nie odwrotnie, lub Einstein, który założył, że grawitacja jest zniekształceniem geometrii czasoprzestrzeni, a nie siłą oddziałującą między dwoma obiektami, jak chciał Newton. Paul Feyerabend rozwinął tę ideę i zauważył, że istnieje więcej niż jeden typ naukowca. Niektórzy, jak Einstein i Kopernik, byli filozoficznymi rewolucjonistami, zadającymi wielkie pytania i zmieniającymi paradygmat, inni zaś są raczej jak rozwiązujący łamigłówki, wypełniający luki w istniejącej teorii, niż wyobrażający sobie nową.

Jest już oczywiste, że sztuczna inteligencja może wykonać nadludzką pracę polegającą na rozwiązywaniu zagadek, czego najlepszym przykładem jest zwijanie białek. Kwestią jeszcze nieustaloną jest to, czy LLM mogą wymyślić zupełnie nowe, szczególne i wnikliwe teorie, które radykalnie zmienią nasze rozumienie wszechświata – w sposób, w jaki fizycy mogą myśleć o ogólnej teorii względności jako o katedrze intelektualnej. Dodatkowe pytanie brzmi – jeśli modele potrafią skonstruować taką nową teorię, to czy ludzie w ogóle będą w stanie ją zrozumieć?

 

Wielkie wyzwania

Chociaż nigdy nie było lepszego czasu do życia niż teraz, ludzkość stoi przed wielkimi wyzwaniami. Wydaje się prawdopodobne, że sztuczna inteligencja znacznie pomoże w praktycznym projektowaniu reaktorów termojądrowych do taniej, czystej energii – rzeczywiście podejmowane są już pewne kroki w tym kierunku. Ziemia jest planetą pokrytą wodą, ale tylko 3% stanowi woda słodka, czego zaledwie część nie jest uwięziona w lodowcach i pokrywach lodowych (gdzie chcielibyśmy, aby pozostała). Sztuczna inteligencja wspomoże rozwój wielu dziedzin materiałoznawstwa, między innymi opracuje znacznie bardziej wydajne filtry odsalające niż istniejące obecnie. Dinozaury zostały zniszczone przez uderzenie ogromnej asteroidy 65 milionów lat temu, a naukowcy używają sztucznej inteligencji do skanowania Układu Słonecznego w poszukiwaniu niebezpiecznych skał kosmicznych, których orbity można obliczyć, aby sprawdzić, czy ten sam los nie spotka ludzkości. Obecnie astronomowie wiedzą o istnieniu około 3000 „potencjalnie niebezpiecznych” asteroid, które mogą w przyszłości przelecieć w pobliżu Ziemi, a oczekuje się, że liczba ta wzrośnie ponad dwukrotnie do 2026 roku dzięki zastosowaniu sztucznej inteligencji do poszukiwań.

Nie wiemy, czy sztuczna inteligencja może zaproponować zupełnie nową teorię życia, wszechświata i wszystkiego, ale jest to pytanie, które należy zadać – nawet jeśli stronniczość algorytmu może wskazywać, że odpowiedź brzmi 42.

 

6. Interfejsy mózg-komputer (BCI)

[Image of brain-computer interface signal processing diagram]

Szczegóły są mgliste, lecz Noland Arbaugh pamięta siebie jako nastolatka biegnącego w kierunku jeziora z przyjaciółmi, żeby się wykąpać. Zanurzył się w wodzie, ale uderzył o coś głową, a kiedy się ocknął, nie mógł ruszać rękami i nogami. Niegdyś energiczny student college’u Arbaugh doznał porażenia czterokończynowego i został sparaliżowany od szyi w dół, wrócił do domu pod opiekę rodziców. Był rok 2016, ten sam rok, w którym Elon Musk założył Neuralink do pracy nad interfejsami mózg-komputer (ang. Brain-Computer Interfaces, BCI) w ramach generalnego planu skoncentrowanego na sztucznej inteligencji. W 2024 roku pierwsze urządzenie firmy było gotowe do testów na ludziach, a Arbaugh został wybrany na „P1” – uczestnika numer jeden.

Idea BCI istnieje od jakiegoś czasu, a wózki inwalidzkie sterowane mózgiem są jednym z kluczowych wynalazków, nad którymi pracują zespoły technologiczne na całym świecie. Naukowcy z laboratorium BCI w Lozannie w Szwajcarii zademonstrowali prototyp takiego pojazdu w 2012 roku, a także pracowali nad egzoszkieletami kontrolowanymi przez mózg, aby pomóc osobom niepełnosprawnym. Szwajcarski uniwersytet naukowo-techniczny ETH w Zurychu stworzył coroczny Cybathlon, rodzaj olimpiady, podczas której zespoły badawcze z całego świata i osoby niepełnosprawne konkurują ze sobą, aby przetestować technologie wspomagające sterowanie mózgiem – ale w tym przypadku celem jest zaspokojenie krótkoterminowej potrzeby. To, co wyróżnia Neuralink, to fakt, że wszystko kręci się wokół sztucznej inteligencji.

 

Fale mózgowe

Być może odczuwacie falę fascynacji intelektualnej, aby przeczytać ten rozdział, ale poza tym nasze mózgi wytwarzają prawdziwe elektryczne fale mózgowe o różnych częstotliwościach. Fale te są oznaczone gamma, beta, alfa, theta i delta, począwszy od najwyższych częstotliwości do najniższych. Jak można się spodziewać, gdy nasze mózgi pracują z największą intensywnością, emitowane są fale gamma, a podczas głębokiego snu fale delta – a w trakcie fazy REM (szybki ruch gałek ocznych) występuje mieszanka fal gamma, beta i theta.

BCI są trenowane w ten sposób, że ktoś intensywnie myśli na jakiś temat – w przypadku Arbaugha może to być wyobrażanie sobie, że porusza myszą trzymaną w prawej ręce, a następnie za pomocą palca klika jej prawym lub lewym przyciskiem – a model rejestruje wzór wygenerowanych fal mózgowych. BCI występują w trzech typach. Na jednym końcu spektrum znajdują się nieinwazyjne czujniki, które znajdują się na skórze głowy, często w postaci opaski z czujnikami do pomiaru pola elektrycznego lub magnetycznego albo czepka na całą głowę, jeśli wymagane są bardziej szczegółowe informacje. Takie rozwiązanie mogłoby być stosowane do sterowania wózkiem inwalidzkim za pomocą myśli. W przypadku półinwazyjnych BCI elektrody są umieszczane na odsłoniętej powierzchni mózgu, lecz bez penetracji w głąb. Inwazyjne BCI obejmują osadzenie elektrod bezpośrednio w tkankach nerwowych i mogą być stosowane na przykład do kontrolowania epilepsji. W takich przypadkach trzeba przeprowadzić kraniotomię pacjenta, aby umieścić elektrody w korze mózgu.

 

Roboty i gry

Neuralink to inwazyjny BCI wszczepiony do kory mózgowej (czyli do istoty szarej, którą kojarzymy z „umysłem”). Prototyp czujnika zawiera 64 nici, z których każda jest cieńsza niż ludzki włos i zawiera 16 elektrod, co daje w sumie 1024 elektrody. Ludzki chirurg nie byłby w stanie przeprowadzić operacji wystarczająco dokładnie, więc do jej wykonania zbudowano robota – w przypadku Arbaugha zabieg zajął około dwóch godzin. Podobnie jak w przypadku wielu wczesnych technologii, w których początkowe parametry były niewielkie, istnieje nadzieja, że pewnego dnia liczba czujników będzie liczona w milionach.

Obecnie technologia steruje kursorem – istnieją do tego standardowe testy, a podczas oceny Arbaugh pobił rekord świata w szybkości i precyzji sterowania kursorem już pierwszego dnia, a każdego kolejnego poprawiał wyniki. Arbaugh powiedział: „To było jak użycie Mocy (…), kiedy po raz pierwszy przesunąłem kursor umysłem, po prostu zwaliło mnie to z nóg”.

Coś tak prostego, jak wysłanie wiadomości tekstowej szybko zmieniło się z 10 lub 15 minut w „mniej niż minutę”. Ale w pierwszy weekend Nolanda najbardziej zelektryzował fakt, że był w stanie całą noc grać w grę Civilization IV na komputerze w łóżku, nie prosząc nikogo o pomoc ani o asystę. „To naprawdę zmienia życie”, mówi, ponieważ teraz wreszcie może współzawodniczyć ze swoim tatą w grze Mario Kart.

Widząc potencjał technologii, potencjalny przyszły krok, którego naprawdę chciałby Arbugh, to: „żebym mógł kontrolować całą armię robotów Optimus”. Zręczne i mobilne roboty humanoidalne zmienią życie wielu osób zależnych obecnie od swoich ludzkich opiekunów. Poza koncepcją, by ludzie byli w stanie sterować robotami za pomocą mózgu, BCI mogą również zrewolucjonizować komunikację międzyludzką i umożliwić bezpośrednią wymianę informacji między mózgiem a mózgiem (swoistą telepatię). Może to mieć głębokie konsekwencje dla sposobu, w jaki dzielimy się pomysłami i doświadczeniami.

Arbaugh miał pewne obawy związane z zabiegiem, ponieważ po porażeniu czterokończynowym jego mózg stał się jedyną częścią jego ciała funkcjonującą prawidłowo, a operacja, zwłaszcza tak nowatorska, zawsze niesie ze sobą ryzyko. Ale dla Muska jedną z zalet tej technologii w miarę jej rozwoju jest walka z degradacją mózgu w przyszłości: „jeśli przeżyjesz raka i choroby serca, istnieje prawdopodobieństwo, że będziesz mieć jakieś zaburzenia związane z funkcjonowaniem mózgu, takie jak choroba Alzheimera lub demencja”. Już teraz firmy badają możliwości wykorzystania interfejsów BCI w celu poprawy pamięci lub zwiększenia szybkości uczenia się.

Rozwój BCI rodzi istotne pytania etyczne, a kwestie prywatności, tożsamości i wolności poznawczej wymagają dogłębnej rozwagi w miarę postępu technologii. Na przykład, jak zapewnić, że BCI nie będą naruszały prywatności ani autonomii umysłowej danej osoby? Co równie ważne, jak możemy zagwarantować, że nasze mózgi nie będą hakowane, nasze pomysły kradzione lub wszczepiane, a nasze umysły kontrolowane z zewnątrz? Może się zdarzyć, że do tego typu zabiegów wymagana będzie deklaracja praw transhumanistycznych.

 

Superinteligencja kontrolowana przez człowieka

Chociaż pomoc chorym jest wspaniałym pierwszym krokiem, nie jest to główny powód, dla którego Musk założył Neuralink. Celem innych zespołów badawczych jest często technologia wspomagająca, ale dla Neuralink najistotniejsza jest kontrola sztucznej inteligencji, zanim jej eksplozja zostawi ludzkość daleko w tyle i przejmie kontrolę, nawet jeśli będzie „łagodna”. W 2020 roku, podczas pierwszej publicznej prezentacji technologii Neuralink, Musk mówił o planie „osiągnięcia pewnego rodzaju symbiozy ze sztuczną inteligencją, która będzie ważna w skali cywilizacyjnej i nawet przy łagodnym scenariuszu (…) zostaniemy w tyle”.

Argumentował, że „dzięki interfejsowi mózg-maszyna o dużej przepustowości możemy jechać na przejażdżkę i jednocześnie mieć możliwość połączenia ze sztuczną inteligencją”. Uważa się, że ludziom brakuje przepustowości i szybkości przetwarzania, aby nadążyć za coraz potężniejszą sztuczną inteligencją. Tak więc w przyszłości celem Neuralink będzie stworzenie dodatkowej „warstwy cyfrowej superinteligencji” w naszych mózgach, oddzielnej od naszej kory mózgowej. Taką warstwę mamy już w telefonach i laptopach, ale ograniczeniem jest to, że nie możemy wystarczająco szybko połączyć się z nią na zewnątrz naszego mózgu. „Rzecz, która ostatecznie ograniczy naszą zdolność do symbiozy ze sztuczną inteligencją, to przepustowość” – mówi Musk – „po uleczeniu wielu chorób związanych z mózgiem pojawi się egzystencjalne zagrożenie sztuczną inteligencją (…). O to właśnie chodzi, gdy myślimy o stworzeniu dobrze dopasowanej przyszłości”.

 

7. Lekarz AI zaraz pana przyjmie

Systemy opieki zdrowotnej na całym świecie są w trudnej sytuacji; WHO przewiduje globalny niedobór 18 milionów pracowników służby zdrowia do 2030 roku. Ale sztuczna inteligencja daje nam perspektywę na przejęcie części obowiązków, dostarczenia szybszych i dokładniejszych diagnoz, skuteczniejszych metod leczenia, a nawet lepszego podejścia do pacjenta. Wizjoner uczenia głębokiego Ilya Sutskever twierdzi, że sztuczna inteligencja stworzona, aby być lekarzem „będzie miała pełną i wyczerpującą wiedzę na temat całej literatury medycznej. Będzie miała miliardy godzin doświadczenia klinicznego i będzie zawsze dostępna i niezwykle tania. Kiedy tak się stanie, dzisiejszą opiekę zdrowotną będziemy postrzegać w podobny sposób, jak teraz patrzymy na stomatologię XVI wieku”.

 

Prywatność i zaufanie

Tradycyjnie relacja lekarz–pacjent oparta jest na zaufaniu i przestrzeganiu poufności. W 2015 roku DeepMind rozpoczął współpracę z Royal Free London NHS Foundation Trust nad aplikacją Streams, mającą identyfikować, kiedy u pacjentów występuje zagrożenie ostrą niewydolnością nerek. Projekt powstał w szlachetnym celu, ale niestety firma należąca do Google otrzymała słabo zanonimizowane dane od 1,6 miliona osób. Brytyjskie Biuro Komisarza ds. Informacji8 poinformowało, że szpital nie zabezpieczył prywatności pacjentów w odpowiedni sposób, gdy udostępniał dane.

DeepMind przeprosił i usprawiedliwił się, że „koncentrował się na budowaniu narzędzi dla klinicystów zamiast myśleć o tym, jak projekt powinien być kształtowany pod kątem potrzeb pacjentów”, ale to zdarzenie wskazuje na większe wyzwania związane z integracją tych systemów z istniejącą infrastrukturą opieki zdrowotnej. Oprócz kwestii prywatności danych istnieją również kwestie interoperacyjności systemu, szkolenia klinicystów i zgody pacjenta, które należy rozwiązać, aby technologia mogła być pomyślnie wdrożona.

 

Praca z lekarzami i/lub sztuczną inteligencją?

Jednym z najdłużej optujących za wykorzystaniem sztucznej inteligencji w opiece zdrowotnej jest Eric Topol, profesor medycyny molekularnej w Scripps Research Institute w Kalifornii. Jego książka pt. Deep Medicine z 2019 roku była wezwaniem do wykorzystania sztucznej inteligencji w zadaniach pomocniczych, takich jak transkrypcja notatek i analiza skanów, dzięki czemu lekarze mogliby spędzać więcej czasu ze swoimi pacjentami. Zaledwie rok wcześniej DeepMind nawiązał współpracę z Moorfields Eye Hospital w Londynie w ramach przełomowego partnerstwa, które „pokazało, w jaki sposób sztuczna inteligencja może równać się z najlepszymi lekarzami świata w zalecaniu prawidłowego leczenia ponad 50 chorób oczu” i, co najważniejsze, że jest w stanie wyjaśnić konsultantom nadzorującym, w jaki sposób doszła do swoich zaleceń.

Współpraca, przy założeniu, że decydentem jest nadal człowiek, jest postrzegana jako najlepsza praktyka. Co jednak ciekawe, ponieważ powstała generatywna sztuczna inteligencja, a dziedzina się rozwinęła, pojawiły się badania pokazujące, że klinicyści wspomagani przez sztuczną inteligencję stawiają znacznie lepsze diagnozy, niż gdy robią to sami – ale że także sztuczna inteligencja działająca w pojedynkę może stawiać lepsze diagnozy. Wiąże się to z kwestią systemów eksperckich, którym pojedynczy lekarz nigdy nie dorówna poziomem wiedzy, gdyż sztuczna inteligencja jest szkolona na niewyobrażalnie ogromnej ilości danych. Ale z pewnością większość pacjentów i tak wolałaby dotyk człowieka niż nieczułej sztucznej inteligencji. W rzeczywistości inne badania zaczynają wykazywać, że generatywna sztuczna inteligencja może wywoływać znacznie bardziej empatyczną odpowiedź niż wielu lekarzy i jest często preferowana przez pacjentów.

 

Medycyna spersonalizowana

Tak jak finanse i wydolność systemu dyktowały uniwersalne podejście do edukacji, tak samo było z medycyną. Jednak organizm każdego z nas jest wyjątkowy i inaczej reaguje na leczenie i medykamenty. Teraz, dzięki sztucznej inteligencji, wkraczamy w nową erę spersonalizowanej, precyzyjnej medycyny. Odnośnie do jej przyszłości, raport z 2019 roku dla amerykańskiej National Academy of Medicine stwierdził: „Pojawienie się sztucznej inteligencji jako narzędzia lepszej opieki zdrowotnej oferuje bezprecedensowe możliwości poprawy wyników pacjentów i zespołów klinicznych, zmniejszenie kosztów i wpływu na zdrowie populacji”. Autorzy podkreślili następnie, że cel krótkoterminowy powinien koncentrować się na inteligencji rozszerzonej, a nie na pełnej autonomiczności.

Dzięki analizie ogromnej ilości danych pacjentów, w tym historii chorób, informacji genetycznych i wyborów dotyczących stylu życia, sztuczna inteligencja może w krótkim czasie dostosować plany leczenia do indywidualnych potrzeb, aby pomóc lekarzowi, który może potrzebować godzin, dni lub tygodni na zapoznanie się z tą samą ilością informacji. Oferuje również możliwość przewidywania ryzyka rozwoju niektórych schorzeń, co ułatwi podjęcie środków zapobiegawczych na długo przed wystąpieniem objawów.

Ponadto rewolucja w dziedzinie osobistych urządzeń medycznych – która będzie się utrzymywać – umożliwi coraz bardziej wnikliwe ciągłe monitorowanie, a Twoja sztuczna inteligencja natychmiast zgłosi niepokojące objawy lekarzowi, czy to ludzkiemu, czy wirtualnemu.

 

Ktoś, z kim można porozmawiać

W wielu krajach czeka się bardzo długo na wizytę u specjalisty zdrowia psychicznego, a z oczywistych powodów niektórzy pacjenci mogą mieć obawy przed podzieleniem się swoimi problemami. W 2017 roku Alison Darcy stworzyła chatbota Woebot Health (i towarzyszącą mu aplikację Woebot), zaprojektowanego specjalnie do wspierania dorosłych, nastolatków i młodych matek – ale jest on dostępny tylko jako część szerszego zestawu wsparcia, a nie jako samodzielny system. Darcy mówi: „Niektóre z naszych najmroczniejszych chwil zdarzają się o 2 nad ranem, kiedy nikogo przy nas nie ma. Zaprojektowaliśmy Woebota tak, aby był Twoim osobistym sojusznikiem, zawsze dostępnym”.

Jedną z wielkich zalet takiej aplikacji jest to, że jest wolna od stygmatyzacji. Zważywszy na to, że jest to problem związany ze strachem przed zwróceniem się o pomoc, brytyjska służba zdrowia w coraz większym stopniu wykorzystuje aplikacje do zarządzania skierowaniami dotyczącymi zdrowia psychicznego, co umożliwia pacjentowi zwrócenie się o pomoc bez konieczności tłumaczenia się lekarzowi pierwszego kontaktu i jednocześnie znacznie skraca czas spędzany przez lekarza na wstępnej diagnozie.

 

Pacjent wie najlepiej

Sztuczna inteligencja już okazuje się pomocna, na przykład przy natychmiastowej analizie skanów i wyłapywaniu potencjalnych problemów do oceny przez człowieka, a także przy ciągłym monitorowaniu zdrowia pacjenta i wczesnym zgłaszaniu problemów.

Ponieważ wiele konsultacji odbywa się teraz online, a nie twarzą w twarz, łatwo jest wyobrazić sobie sztuczną inteligencję jako pierwszy punkt kontaktowy, choć istnieje niebezpieczeństwo, że technologia stanie się barierą dla ludzi szukających koniecznej opieki zdrowotnej. Na tej najważniejszej arenie należy za wszelką cenę unikać syndromu „komputer powiedział ‘nie’” i zachować odpowiednią równowagę. Najważniejsze jest, aby pacjent, o ile to tylko możliwe, decydował, czy woli pracować bezpośrednio ze sztuczną inteligencją, czy z człowiekiem wspomaganym przez sztuczną inteligencję. W miarę, jak wkraczamy w przyszłość, w której wszyscy będą wspierani przez asystentów sztucznej inteligencji, takie rozwiązania staną się bardziej znane i łatwiejsze w nawigacji.

 

8. Twój osobisty korepetytor… i przyjaciel

To był pierwszy Globalny Szczyt Bezpieczeństwa AI, który odbył się w angielskim Bletchley Park. Brytyjski premier Rishi Sunak zapytał giganta technologicznego Elona Muska o jego przemyślenia na temat wykorzystania sztucznej inteligencji w edukacji, na przykład jako osobistego korepetytora. „Niesamowitego osobistego korepetytora” – podkreślił Musk, zanim powiedział, że chodzi tu również o towarzystwo. „Jeśli będzie pamiętać wszystkie wasze interakcje, a Ty pozwolisz mu na przeczytanie wszystkiego, co kiedykolwiek napisałeś i będziecie rozmawiać codziennie, a te rozmowy będą ze sobą powiązane, to będzie Cię znać lepiej niż ktokolwiek inny – może nawet lepiej niż ty sam siebie”.

Posiadanie osobistego korepetytora może zmienić wszystko – kogoś, kto pracuje z Tobą, poznaje Twoje mocne i słabe strony, instynktownie wie, co Cię motywuje i jakie masz ambicje na przyszłość. Czy Aleksander Wielki podbiłby większość znanego świata, gdyby nie jego prywatny nauczyciel Arystoteles? Czy sportowcy olimpijscy zdobywaliby złoto bez intensywnego treningu personalnego?

Edukacja jest postrzegana jako dobro uniwersalne, co oznacza, że idea uniwersalnego kształcenia rozprzestrzeniła się na cały świat. Ale rządy nie mogą sobie pozwolić na indywidualne nauczanie dla całości społeczeństwa, stąd pomysł szkół z klasami liczącymi około 30 uczniów – fabryk edukacji inspirowanych rewolucją przemysłową. Podobnie jak linia produkcyjna, wszyscy uczniowie uczą się (lub nie) w tym samym tempie i idą razem bez względu na sukcesy lub porażki. Nie tylko pedagodzy, ale także rodzice są zbyt świadomi, że nauczanie „jeden na jeden” może dać indywidualnym uczniom przewagę. Badania pokazują, że edukacja u ekspertów poprawia oceny o około dwa odchylenia standardowe, co oznacza, że przeciętny uczeń może znaleźć się w grupie najlepszych 5% uczniów, a słabszy student poniżej średniej wzniesie się ponad przeciętność.

Często wydaje się to niesprawiedliwe, ponieważ dostęp do takiego nauczania mają tylko ci, których na to stać. Ale co, gdyby sztuczna inteligencja mogła stać się osobistym korepetytorem? Co by było, gdyby każdy mógł otrzymać lepsze wykształcenie?

 

Czy sztuczna inteligencja nie oszukuje?

Niedługo po wydaniu ChatGPT wiele krajów i jednostek edukacyjnych zakazało jego używania, z powodu obaw, że studenci będą korzystać ze sztucznej inteligencji do pisania esejów lub opowiadań, lub do pomocy przy innych zadaniach. Jednak na świecie, poza edukacją, firmy spieszyły się, aby znaleźć sposoby na wykorzystanie sztucznej inteligencji w celu poprawy produktywności, co przełożyłoby się na większe zyski. W związku z tym, czy biegłość w posługiwaniu się tym nowym „narzędziem” nie powinna być nauczana w szkołach, a nie zakazana?

Przedsiębiorca edukacyjno-technologiczny Salman Khan uważa, że dżin uciekł już z butelki i mówi o podejściu „wykształconej odwagi”, aby surfować na nadchodzącej fali tego nowego i transformującego narzędzia, zamiast próbować mu zapobiec. Na długo przed tym, jak OpenAI wprowadziło ChatGPT na niczego niepodejrzewający rynek światowy, Greg Brockman (prezes) i Sam Altman (dyrektor generalny) zwrócili się do Khana, aby dowiedzieć się, czy chce włączyć nadchodzącą technologię do swojej akademii online (której deklarowaną misją jest zapewnienie każdemu dziecku dostępu do bezpłatnej doskonałej edukacji).

 

Trwałość pamięci

Zespół Khana wiedział, że sztuczna inteligencja nie może po prostu dawać studentowi gotowych odpowiedzi, więc wprowadził do oprogramowania ideę dialogu sokratejskiego. To bardzo dobrze, że uczeń prosi sztuczną inteligencję o wyjaśnienie praw dynamiki Newtona lub dlaczego Jay Gatsby wpatruje się w zielone światło po drugiej stronie zatoki9. Ale co by było, gdyby sztuczna inteligencja nie dała zwykłej odpowiedzi, ale zaangażowała się w dyskusję z uczniem, dzięki czemu on sam wpadłby na rozwiązanie – tak jak zrobiłby to każdy dobry osobisty korepetytor? Na przykład, pamiętając rozmowę sprzed kilku miesięcy, kiedy uczeń był szczególnie entuzjastycznie nastawiony do golfa, sztuczna inteligencja rozpoczęłaby dyskusję o prawach Newtona na przykładzie trajektorii piłeczki golfowej.

AI: A może pomyślmy o tym w kategoriach golfowych? Jakie siły działają na twoją piłkę, gdy uderzysz w podstawkę piłeczki?
UCZEŃ: To świetny pomysł. Po uderzeniu piłki pojawia się wiatr, który należy wziąć pod uwagę.
AI: A to, co leci w górę, musi też spaść. Czy zostało nam jeszcze coś do rozważenia?
UCZEŃ: Oczywiście! Siła grawitacji działająca na piłkę.
AI: Zastanówmy się nad kilkoma liczbami i zobaczmy, czy możemy znaleźć sposób, aby zoptymalizować uderzenie w piłeczkę.
UCZEŃ: Taka nauka jest super!

Intencją tych nowych nauczycieli AI nie jest zastępowanie nauczycieli, ale pomaganie im. Mogą również informować nauczyciela-człowieka o sposobie realizacji projektu i pomagać mu w planowaniu lekcji i ocenianiu zadań.

 

Program nauczania i ocenianie

Dlaczego każdy powinien uczyć się tych samych rzeczy? Każdy uczeń jest indywidualny, a nauczyciele AI mogą wykraczać poza zwykłe nauczanie, aby pomóc w opracowaniu spersonalizowanych programów nauczania. Dzięki poznaniu zainteresowań ucznia i analizie jego mocnych i słabych stron oraz stylu uczenia się sztuczna inteligencja może stworzyć dostosowaną ścieżkę edukacyjną, która zoptymalizuje efekty.

Jednocześnie może zrewolucjonizować sposób, w jaki oceniamy umiejętności i wiedzę. Zamiast tradycyjnych egzaminów lub testów wielokrotnego wyboru online, sztuczna inteligencja mogłaby stale oceniać zrozumienie materiału przez ucznia poprzez znacznie bardziej naturalne interakcje, co zapewniłoby dokładniejsze i bardziej kompleksowe oceny. Gdyby wymagany był bardziej formalny egzamin, mógłby on przybrać formę zbliżoną do doktoranckiego egzaminu pre-viva, podczas którego sztuczna inteligencja zagłębiłaby się w wiedzę studenta i sposób jej uzyskania.

 

Przyjaciel na całe życie

W przyszłości może się zdarzyć, że pierwsze doświadczenie formalnej edukacji dziecka nastąpi poprzez interakcję ze sztuczną inteligencją. I to nie z byle jaką sztuczną inteligencją, ale z jego prywatną AI. A w miarę rozwoju dziecka sztuczna inteligencja będzie się rozwijać wraz z nim, pielęgnując, zachęcając i motywując młodego adepta nauki. Ale dlaczego miałoby się to skończyć, gdy dziecko dorośnie i będzie szło na uniwersytet? Naturalne jest myślenie, że sztuczna inteligencja pozostanie przy swoim podopiecznym i poprowadzi go przez kolejny etap edukacji. I po co poprzestać na tym etapie? Z pewnością nie ma nikogo, kto lepiej zna i rozumie ucznia po latach interakcji niż sztuczna inteligencja, która staje się coachem kariery i pomaga uczniowi wejść w kolejny etap życia.

I na tym przygoda nie powinna się kończyć, ponieważ w końcu sztuczna inteligencja, która dorastała z tobą i zna Cię lepiej niż ktokolwiek inny, jest z pewnością najlepiej przygotowana do bycia zarówno Twoim życiowym trenerem, jak i, jak powiedział Elon Musk, Twoim przyjacielem. Ta wizja przyszłości się rozpada, jeśli związek między człowiekiem a jego mentorem AI zostaje zerwany. Co się stanie, jeśli firma będąca właścicielem oryginalnej sztucznej inteligencji zbankrutuje lub zacznie liczyć sobie za swoje usługi tyle, że nie będzie nas na nie stać? A co, jeśli uczeń będzie zmuszony na pewnym etapie swojej edukacji zacząć wszystko od nowa i mieć nowego mentora AI, który będzie poznawał go od zera, bez dostępu do bogactwa wcześniejszych interakcji?

Jest to kolejny przykład, w którym kwestia własności technologii wysuwa się na pierwszy plan. Gdy już pojawią się osobiści nauczyciele AI, jedynym sposobem, aby byli skuteczni dla wszystkich, jest „posiadanie” przez wszystkich własnej wersji Arystotelesa. W ten sposób sztuczna inteligencja będzie oferować obietnicę lepszego wykształcenia i uczciwszego świata dla wszystkich dzieci przyszłości.

 

9. Nie jesteście zadowoleni?10

Kiedy w 1999 roku słynny reżyser Ridley Scott kręcił swoje arcydzieło Gladiator, zmarł jeden z jego głównych aktorów. Jako mentor Maximusa, odgrywanego przez Russella Crowe’a, Proximo, w którego wcielał się Oliver Reed był centralną postacią filmu, co zatem można było zrobić? Zamiast angażować kogoś innego i ponownie kręcić niezbędne sceny, co opóźniłoby datę premiery, Scott zwrócił się ku technologii, dzięki której można było „ożywić” zmarłego aktora. To udane rozwiązanie zostało zastosowane potem w serialu Rodzina Soprano i w Igrzyskach śmierci, gdy w trakcie kręcenia nastąpiły te same tragiczne wydarzenia, ale generatywna sztuczna inteligencja przyniosła teraz nowy wymiar. Po co w ogóle prawdziwy aktor, skoro można go symulować za pomocą sztucznej inteligencji? Albo gdy można wygenerować w pełni syntetycznych aktorów odwołujących się tylko do zamierzonej grupy demograficznej?

Aby odtworzyć Reeda, Scott użył efektów wizualnych (VFX) – filmując ciało dublera i nakładając twarz zmarłego aktora. Jest to niejako zastosowanie maksymy McCarthy’ego, że jeśli coś działa, to już nie jest sztuczną inteligencją – to, co reżyser tak naprawdę zrobił, było wczesnym przykładem deepfake’u. Wkradająca się technologia do świata VFX przeniosła animację z pierwszych produkcji Walta Disneya do dzisiejszych cudów, a następna innowacja w zakresie sztucznej inteligencji nadejdzie dzięki akcji na żywo. Sora OpenAI to tylko jeden z przykładów silnika generatywnej sztucznej inteligencji do tworzenia filmów. Wydany w lutym 2024 roku system generuje krótkie, przekonujące filmy dzięki prostym promptom. Biorąc pod uwagę szybkie tempo zmian, możemy się spodziewać, że prawdopodobnie do 2025 roku pojawią się długie filmy.

Ale prawdziwa siła tkwi w integracji technologii. Program Showrunner od The Simulation to aplikacja AI do tworzenia animowanej telewizji za pomocą promptów, z których materiał filmowy można następnie wygenerować również za pomocą sztucznej inteligencji. Kolejnym etapem może być nawet wirtualny pokój scenarzystów pracujących wspólnie ze sztuczną inteligencją nad dopieszczeniem scenariusza, zanim syntetyczne postacie zaczną grać.

 

Gry wideo

Ostatnie dziesięciolecia przyniosły dramatyczny rozwój nowego medium rozrywkowego, jakim są gry wideo, które generuje większe przychody niż branża filmowa i muzyczna razem wzięte. To, co zaczęło się od prostej grafiki w grach takich jak Pong, ładowanych za pomocą odtwarzacza kasetowego i wyświetlanych na kineskopowym monitorze, przemieniło się z czasem w całkowicie immersyjne wirtualne światy. W 2016 roku firma Hello Games wykorzystała sztuczną inteligencję do gry No Man’s Sky, aby stworzyć cały wszechświat, w którym nie ma dwóch takich samych planet, ale ponieważ algorytm jest deterministyczny, wszechświat jest taki sam dla wszystkich graczy rywalizujących online.

Nadchodząca zmiana polega na tym, że sztuczna inteligencja będzie dostosowywać grę do graczy, co niewątpliwie będzie widoczne w postaciach takich jak NPC, które są istotami występującymi w grze, ale niebędącymi pod kontrolą gracza. Obecnie mogą one mieć kilka standardowych linii dialogu, które szybko mogą się znudzić, ale przyszła sztuczna inteligencja wygeneruje nowe dialogi i zachowania oparte na interakcji z ludzkimi graczami.

 

Koncert jak żaden inny

W Pudding Mill Lane w Londynie znajduje się ABBA Arena, miejsce na nowy rodzaj rozrywki AI, w którym szwedzkie gwiazdy popu z zespołu Abba przeformowały się wiele dekad po tym, jak grupa się rozpadła na początku lat 80. XX wieku. Każdego wieczoru przed 3000 widzów czworo członków Abby reprezentują Abbatary, czyli sztuczna inteligencja odtwarza ich „ja” z 1979 roku, które śpiewają, tańczą i opowiadają publiczności o swoim życiu, wspierane przez zespół na żywo.

Trójwymiarowe gwiazdy (oraz ich instrumenty i stojaki na mikrofony) są iluzjami sztucznej inteligencji stworzonymi przez światło. Osiągnięto także udane porozumienie w sprawie drugiej wersji ABBY AI w Las Vegas. Kosztujące 140 milionów funtów show jest wynikiem współpracy z firmą George’a Lucasa Industrial Light & Magic, która wykorzystała podobną technologię do sfilmowania spin-offu Gwiezdnych Wojen – The Mandalorian, co umożliwiło aktorom występy obok rekreacji 3D AI zamiast na tle zielonego ekranu. Niewielu innych artystów muzycznych mogłoby sobie obecnie pozwolić na tak wysoki koszt produkcji, ale, jak w przypadku wszystkich nowych technologii, koszty niedługo spadną. Być może The Beatles pójdą w ich ślady, ale obecnie największą trudnością jest to, że koncert Abby został opracowany na podstawie wielu godzin przechwytywania ruchu, zanim algorytmy mogły wykonać swoją pracę, w przypadku zaś Czwórki z Liverpoolu dwóch członków nie żyje, więc nie można tego zrobić. Ale to tylko obecna granica technologii i na pewno się zmieni.

 

Odkrywalność

W przeszłości istnieli nadzorcy, którzy decydowali, jakie książki są wartościowe dla czytelników, jakiej muzyki ludzie powinni słuchać i jakie programy telewizyjne lub filmy powinni oglądać. Sieć zdemokratyzowała wiele treści kreatywnych. Łatwiej jest założyć firmę fonograficzną i wydać własną muzykę lub wydawnictwo i publikować własne książki. Wraz z eksplozją tworzonych treści największym wyzwaniem dla wielu twórców jest szansa na zostanie odkrytym. W zaciszu swojej sypialni możesz myśleć, że nagrałeś najlepszą piosenkę w historii świata, ale jak sprawić, by inni ją usłyszeli – i zapłacili Ci za tę przyjemność?

Jedną z wielkich innowacji AI, do której już przywykliśmy, jest algorytm rekomendacji, w świecie muzyki zaś króluje Spotify ze względu na dane szkoleniowe dostarczane przez ogromną bazę danych od ponad pół miliarda użytkowników. Tradycyjne wyszukiwanie tekstu znajduje dokładnie to, czego szukasz, a algorytm rekomendacji znajduje więcej na podstawie tego, co lubisz, w tym różne piosenki i artystów, których wcześniej nie znałeś, ale które są w podobnym stylu do Twoich ulubionych, więc znajdują się blisko w wielowymiarowej matematycznej przestrzeni wirtualnej. Jednak wszystkie takie programy cierpią z powodu „problemu rozruchu na zimno” (ang. cold start problem), polegającego na tym, jak kategoryzować nowe utwory, zwłaszcza od zupełnie nowych artystów. W tym celu stosuje się „mieszankę” ludzkich ekspertów i algorytmów, w których sztuczna inteligencja nadal przyznaje punkty za takie parametry jak taneczność i głośność, a także koreluje poszczególne słowa w tekstach piosenek.

Jest to kolejne pole, na którym konkurencja napędza postęp sztucznej inteligencji. Dlaczego widz mający szeroki wybór platform streamingowych ma wybrać Twoją, a nie konkurencji?

W 2006 roku kierownictwo Netflix ustaliło, że algorytmy rekomendacji są kluczem do przyszłego sukcesu i ustanowiło nagrodę Netflix o wartości miliona USD, która miała być przyznana komuś, kto wprowadzi możliwą do udowodnienia 10-procentową poprawę istniejącego algorytmu. Trzy lata później pojawił się zwycięzca i nowy algorytm, który pomógł platformie wznieść się na jeszcze większe wyżyny. Konkurs był tak udany, że zaplanowano drugą nagrodę, ale została ona zablokowana przez Federalną Komisję Handlu ze względu na obawy dotyczące prywatności użytkowników w związku z udostępnianiem danych szkoleniowych.

 

Kto chce żyć wiecznie?11

Od teraz znane gwiazdy mogą być nieśmiertelne. Podobnie jak Abbatary czy Oliver Reed, nadal mogą występować przez kolejne stulecia, w wersji postarzonej, odmłodzonej lub dostosowanej do potrzeb filmu, w którym te cyfrowe reprezentacje będą występować.

Obecnie publikuje się więcej książek niż kiedykolwiek wcześniej, produkowanych jest więcej programów telewizyjnych na większej liczbie platform streamingowych i tak dalej. Nie ma powodu, aby postrzegać ten trend jako malejący – w rzeczywistości prawdopodobnie przyspieszy, ponieważ kreatywna sztuczna inteligencja i bardziej kreatywni ludzie wykorzystujący ją jako narzędzie generują coraz więcej „treści”. Dla każdego będzie zbyt wiele do spożycia, ale dzięki coraz bardziej spersonalizowanym algorytmom rekomendacji zawsze będziesz miał rozrywkę.

 

10. Inżynieria promptów

Ludzie obawiają się, że sztuczna inteligencja spowoduje masowe zwolnienia, ale trzeba pamiętać, że każda innowacja technologiczna tworzy nowe, wcześniej nieznane miejsca pracy. Przed wynalazkiem braci Wright nie było inżynierów lotnictwa, nie mówiąc już o pilotach i astronautach. Przed pojawieniem się mediów społecznościowych nie było inflencerów ani ekspertów od optymalizacji wyszukiwarek przed narodzinami Google. Z pewnością takich zawodów będzie o wiele więcej, ale pierwszym szałem na rynku pracy związanym z rewolucją generatywnej sztucznej inteligencji jest inżynieria promptów – obecnie najgorętszy bilet do centrum sztucznej inteligencji.

Dzisiaj wszyscy mamy dostęp do dużych modeli językowych (LLM) w jakiejś formie i wszyscy powinniśmy z nimi eksperymentować, aby zobaczyć, jak działają, i nie zostać w tyle wyścigu po nową przyszłość. Ale odpowiedzi, które otrzymujesz od AI, zależą od promptów, które wpiszesz. Im lepiej ustrukturyzujesz swoje zapytanie, tym bardziej prawdopodobne, że dostaniesz użyteczną odpowiedź.

 

Odgrywanie ról

Jeśli otrzymasz zadanie, na przykład wyjaśnienie czegoś, najważniejsze, abyś wiedział, kim są Twoi odbiorcy. LLM muszą wiedzieć, komu odpowiadają, więc można zapytać „Wyjaśnij splątanie kwantowe, jakbyś rozmawiał z dziesięciolatkiem” lub powiedzieć „Studiuję filologię klasyczną – czy możemy omówić powody przeniesienia stolicy z Rzymu do Bizancjum?” Ale, co być może najważniejsze, Twoja generatywna sztuczna inteligencja musi znać swoją własną rolę. Biorąc pod uwagę trudności, jakie LLM często mają z zagadnieniami obliczeniowymi, jeśli prosisz go o rozwiązanie trudnego problemu, powiedz mu „Jesteś profesorem matematyki”. W przypadku pytań ogólnych przypomnij mu „Jesteś bardzo inteligentny”, chyba że chcesz czegoś innego, to na przykład „Jesteś megazabawny”.

 

Porady i wskazówki

Korzystanie z LLM jest czymś nowym, a ludzie cały czas odkrywają bardziej wydajne techniki promptów. Oto kilka podstawowych wskazówek, które prawie zawsze okażą się pomocne w uzyskiwaniu lepszych wyników.

Podaj kontekst
Informacja, dlaczego pytasz, jest bardzo przydatna dla LLM, który w przeciwnym razie musi zgadywać, tak jak podczas konfrontacji z własnym testem lustrzanym. Podaj LLM terminologię specyficzną dla danej dziedziny lub opis sytuacji – na przykład: „Piszę raport dla szkolnej Rady Rodziców na temat korzystania z telefonów przez uczniów w klasach i chcę wiedzieć, jakie są główne argumenty za i przeciw oraz jakie są zalecenia rad rodziców w innych szkołach w Londynie”.

Nastaw się optymistycznie
W życiu lepiej być optymistą i okazuje się, że jest to tak samo prawdziwe w przypadku interakcji z LLM jak i z ludźmi. Dodaj do podpowiedzi coś w stylu „Będzie fajnie!” i prawdopodobnie zobaczysz znacznie lepsze wyniki.

Daj LLM trochę czasu
Wszyscy czasem się spieszymy i nie podejmujemy najlepszych decyzji. Generatywna sztuczna inteligencja też ma podobnie, choć często lepiej byłoby się zatrzymać i wziąć głęboki oddech. W przypadku większości codziennych zadań nie ma dla nas znaczenia, czy zobaczymy wynik w ciągu pół sekundy, czy w ciągu pięciu sekund, ale dla LLM pięć sekund to wieczność i ten czas pozwoli mu myśleć znacznie wnikliwiej. Powiedz: „Weź głęboki oddech i dokładnie się zastanów” lub „Zastanów się nad tym przez kilka sekund, zanim zaczniesz”.

Połącz kroki jego rozumowania
W początkach LLM to, co było znane jako rozumowanie łańcuchowe, było postrzegane jako sposób na generowanie lepszych wyników. Polegało to na tym, że poprosiłeś model o wyjaśnienie jego wnioskowania przez pokazanie serii pośrednich kroków rozumowania.
W miarę upływu czasu zdajemy sobie sprawę, że rozumowanie łańcuchowe można zwykle uprościć do podstawowej podpowiedzi, na przykład „Pomyśl o pytaniu krok po kroku”.

Przypominaj mu o dokładności
Ponieważ LLM są podatne na halucynacje (czyli zmyślanie) i często robią to w bardzo przekonujący sposób, dając wiarygodne odpowiedzi, musisz im przypomnieć, aby były dokładne. Chociaż jest to cecha ich kreatywności, na takie rzeczy jest odpowiedni czas i miejsce, więc być może będziesz musiał powiedzieć „Upewnij się, że Twoja odpowiedź jest dokładna i nie zmyślaj”, a jeśli chcesz sprawdzić rozumowanie LLM, możesz poprosić: „Przy odpowiedzi podaj listę źródeł, z których korzystałeś”.

Zmuś go do zadawania pytań
Powiedzenie jednej rzeczy i pozwolenie LLM na działanie i wygenerowanie całej odpowiedzi nie jest najlepszym podejściem do skomplikowanego zagadnienia. Prawdopodobnie o czymś jednak zapomniałeś lub nie byłeś wystarczająco precyzyjny przy podawaniu początkowych promptów, więc pozwól modelowi zadawać sobie pytania: „Zadawaj mi pytania, dopóki nie będziesz mieć wystarczających informacji, aby udzielić pełnej odpowiedzi”.

Wszystkie te techniki zostały wdrożone przy tworzeniu promptów LLM, gdy Claude Sonnet pisał ostatni rozdział tej książki. Ponieważ inżynieria promptów staje się coraz bardziej wyrafinowana, prawdopodobnie zobaczymy rozwój systemów sztucznej inteligencji, które będą automatycznie optymalizować podpowiedzi. Te systemy meta-AI mogłyby analizować zarówno wymagania zadaniowe, jak i możliwości modelu do generowania najbardziej efektywnych podpowiedzi.

 

Maszyny analogiczne do ludzi

Jednym z głównych wniosków dotyczących LLM jest to, że zostały one zbudowane tak, aby naśladować ludzką kreatywność. Nie muszą być tak dokładne jak kalkulator przy sumowaniu i mogą zapomnieć, jaki jest dzień, lub skutecznie blefować, jeśli nie mają prawidłowej odpowiedzi. Pomyśl o nich jak o tym, co profesor Cambridge Neil Lawrence opisuje jako maszyny analogiczne do ludzi, a dzięki temu wasze interakcje i wyniki LLM prawdopodobnie będą bogatsze.

Ponieważ LLM są nową technologią, ci, którzy już wskoczyli na zawodową platformę inżynierii promptów, wyprzedzili wszystkich innych, którzy dopiero nabiorą biegłości, gdy technologia stanie się bardziej popularna. Ale w tym momencie nikt nie jest daleko przed peletonem i istnieje możliwość nadrobienia zaległości, wyprzedzenia lub znalezienia nowych nisz w ekosystemie LLM podczas planowania przyszłej kariery związanej ze sztuczną inteligencją.

 


Przypisy

  1. Odniesienie do Hugh’a Scanlona, jednego z najbardziej prominentnych działaczy związkowych Wielkiej Brytanii, któremu w 1976 roku ówczesny premier Harold Wilson nakazał by „zabrał swoje czołgi z jego trawnika” (przyp. tłum.).
  2. Tytuł jest przewrotnym nawiązaniem do tytułu filmu Terminator 3: the Rise of Machines (przyp. tłum.).
  3. Cobot – nazwa typu robotów będąca skrótowcem od angielskiego terminu collaborative robot (robot współpracujący) (przyp. tłum.).
  4. „The Atlantic” – amerykański miesięcznik założony w Bostonie w 1857 roku. Początkowo był to periodyk stricte literacki i kulturalny, obecnie skupia się na stosunkach międzynarodowych, polityce, ekonomii oraz kulturze (przyp. tłum.).
  5. S. Khan, Brave New Words, New York, Viking 2024.
  6. 3R – określenie trzech podstawowych umiejętności w szkołach podstawowych w USA w XIX i na początku XX wieku. Wzięło się od angielskich słów: reading (czytanie), (w)riting (pisanie), (a)rithmetic (liczenie) (przyp. tłum.).
  7. T. Kuhn, The Structure of Scientific Revolutions, Chicago 1965, wyd. polskie: Struktura rewolucji naukowych, tłum. H. Ostromęcka, Warszawa, Aletheia 1968 (przyp. tłum.).
  8. Brytyjskie Biuro Komisarza ds. Informacji (ang. The Information Commissioner’s Office, ICO) – organ pozarządowy odpowiadający bezpośrednio przed parlamentem Wielkiej Brytanii, finansowany przez Ministerstwo Nauki, Innowacji i Technologii (przyp. tłum.).
  9. Nawiązanie do powieści F. S. Fitzgeralda pt. Wielki Gatsby (przyp. tłum.).
  10. Odwołanie do słynnej sceny z filmu Gladiator, w której Maximus pyta: „Are you not entertained?” (przyp. tłum.).
  11. Nawiązanie do piosenki zespołu Queen „Who wants to live forever?” (przyp. tłum.).

Fragment pochodzi z książki:
50 idei, które powinieneś znać. AI Sztuczna inteligencja 
Keith Mansfield, Wydawnictwo Naukowe PWN

Przeczytaj również

Technologie i produkty

23 stycznia 2026

ZETKAMA rozwija serwis armatury

Nowości techniczne

21 stycznia 2026

SEW-EURODRIVE rozszerzył ofertę napędów niskonapięciowych

Aktualności, Technologie i produkty

20 stycznia 2026

BIZ Kompas: przewodnik po świecie zagranicznych inwestycji. Polskie firmy na globalnym rynku

Wydarzenia

19 stycznia 2026

Fensterbau Frontale 2026 w Norymberdze – kluczowe wydarzenie dla branży okien, drzwi i fasad

Promuj swoją firmę wśród ekspertów branży

Docieraj do inżynierów i kadry zarządzającej w przemyśle. Wybierz sprawdzone źródło wiedzy technicznej jako platformę dla wizerunku Twojej marki.

Nasi partnerzy