Historia sztucznej inteligencji – od mechanicznego Turka do pierwszych sieci neuronowych

Ryszard Tadeusiewicz

 

Sztucznej inteligencji (AI) używa się dziś wszędzie i do wszystkiego. Ale czy wiemy, jak to się wszystko zaczęło? Na ogół nie. A tymczasem wiele ważnych cech dzisiejszych systemów AI wynika z tego, jak ta technologia rodziła się i rozwijała przez ponad pół wieku. Zapraszam więc Państwa do tego, byście zechcieli poznać początki sztucznej inteligencji po to, żeby lepiej rozumieć jej dzisiejsze zalety i ograniczenia w inżynierii i życiu codziennym.

Oczywiście pełna historia rozwoju sztucznej inteligencji nie zmieści się w ramach tego artykułu, więc zapowiem tylko, że wydawnictwo RM, które wcześniej wydało moją książkę „Krótka historia informatyki” [1] (niedawno ukazało się już trzecie wydanie tej książki) zamówiło u mnie napisanie kolejnej publikacji z założonym przez wydawcę tytułem „Krótka historia sztucznej inteligencji”. Książkę tę napisałem, potem stoczyłem ciężki bój z Panią Redaktor, która kwestionowała wszelkie sformułowania chociaż trochę nawiązujące do terminologii na co dzień używanej w technice ale podobno zupełnie niezrozumiałej dla humanistów (na przykład absolutnie niemożliwy do zrozumienia był termin, że coś jest liniowe i musiałem to wytłumaczyć, odwołując się wyłącznie do pojęć potocznych), ale przebrnąłem już przez ten etap, więc książka ukaże się na początku 2026 roku. Do tej książki już teraz Państwa zapraszam, są w niej opisane dzieje powstania i rozwoju systemów inteligentnych krok po kroku.

Skoro jednak zgromadziłem ogromną liczbę materiałów źródłowych na temat tego, jak powstawała i jak się rozwijała sztuczna inteligencja – pomyślałem, że moją wiedzą podzielę się z kolegami po fachu, czyli z czytelnikami miesięcznika „Napędy i Sterowanie”. Żeby jednak nie było to suche i nudne jak wpis w Wikipedii – postanowiłem, że z tej obszernej historii „wydłubię same rodzynki” – to znaczy opowiem o faktach i ludziach na ogół mało znanych, a dość ekscytujących. To nie jest poważne studium tematu, ale zbiór ciekawostek. Ale smacznych!

 

Początki sztucznej inteligencji i „mechaniczny” szachista

W 1770 roku Węgier, Wolfgang von Kempelen skonstruował i zaprezentował publicznie maszynę, która rozgrywała z ludzkim przeciwnikiem partie szachów. Maszyna składała się z naturalnej wielkości modelu ludzkiej głowy i tułowia, z czarną brodą i szarymi oczami, ubranego w osmańskie szaty i turban – „tradycyjny strój orientalnego czarownika”. Z „Turkiem” rozgrywali partie różni pretendenci, z których najbardziej znanymi przeciwnikami automatu byli Napoleon Bonaparte i Benjamin Franklin.

Działanie „Turka” było oszustwem. Wewnątrz szafki był ukryty mistrz szachowy, który za pomocą opadających spod przesuwanych figur szachowych magnesów obserwował przebieg rozgrywki, a za pomocą specjalnego pantografu mógł poruszać ręką „Turka” wykonującego swoje ruchy na szachownicy. „Turek” mógł także potrząsać głową gdy gracz (człowiek) wykonał ruch niedozwolony w szachach.

Oczywiście publiczność podejrzewała (słusznie!), że za tym wszystkim ukryty jest gdzieś żywy szachista – człowiek. Jednak mimo otwierania drzwiczek szafki i pokazywania publiczności jej zawartości z dużą liczbą kół zębatych, które miały uwiarygodnić mechaniczny charakter „Turka” – szachisty ukrytego we wnętrzu nie można było zobaczyć, ponieważ miał on do dyspozycji przesuwne siedzenie i mógł się ukrywać przed obserwacją przemieszczając się do tej części wnętrza, która nie była w danej chwili obserwowana.

 

Deep Blue kontra Kasparow – przełom w sztucznej inteligencji

W przypadku rzeczywistego zwycięstwa maszyny nad człowiekiem było odwrotnie. Wykonam teraz skok o 227 lat do przodu i sięgnę do przypadku kiedy w dniu 11 maja 1997 roku komputer Deep Blue naprawdę wygrał z człowiekiem – a obserwatorzy przypuszczali, że stoi za tym podpowiedź człowieka. Człowiek, z którym komputer wygrał, był Garri Kimowicz Kasparow, mistrz świata w szachach. Punktacja Elo (to taka miara siły gry szachisty) Kasparowa wynosiła 2851. To jeden z najwyższych wyników jakie kiedykolwiek osiągnął człowiek. Piszę o tym tak obszernie, bo chciałbym rozprawić się z pewnym krzywdzącym dla sztucznej inteligencji poglądem lansowanym przez niektórych krytyków. Owi krytycy powiadają, że to nie komputer posługujący się AI pokonał Kasparowa („wymyślając” na bieżąco, co i jak trzeba zrobić, żeby go pokonać), tylko ktoś bardzo mądry tak go zaprogramował, żeby wygrał.

Otóż trzeba z naciskiem podkreślić, że w momencie toczenia w 1997 roku meczu Kasparow kontra Deep Blue nie było na świecie człowieka, który by wygrał z Kasparowem. On pokonywał wszystkich! Nie było więc także możliwe, by ktoś zaprogramował, co komputer ma robić, żeby wygrać. Takiego mądrego nie było. A komputer wygrał! Czyli to sztuczna inteligencja pokonała człowieka – i inaczej tego interpretować nie można. To było naprawdę epokowe wydarzenie!

 

Rozwój algorytmów szachowych w informatyce

Skoro wspomniałem o pokonaniu przez sztuczną inteligencję arcymistrza szachowego – może przypomnę kilka wcześniejszych wydarzeń związanych z programami grającymi w szachy.

Komputerowe programy naprawdę grające z ludźmi w szachy zaczęły się od programu, który stworzył go w 1958 Rosjanin Alex Bernstein na komputerze BESM sławnym z tego powodu, że z jego pomocą powstawały podstawy sowieckiego arsenału atomowego. Ze swoim amerykańskim odpowiednikiem nazwanym Kotok-McCarthy program Bernsteina wygrał, ale rosyjskie władze zareagowały na sukces swoich uczonych w sposób dosyć specyficzny: dyrektor ITEP Aleksander Kronrod, który dopuścił do tego, że komputer BESM zamiast rozwiązywać problemy fizyki atomowej i szykować kolejne głowice jądrowe do tego, by zmieść Amerykę z powierzchni Ziemi był angażowany do jakiejś tam rozgrywki szachowej z Amerykanami – został wyrzucony ze stanowiska i pozbawiony tytułu profesorskiego!

Historia odnotowała inną zabawną przygodę pewnego szkockiego międzynarodowego mistrza szachowego, który w 1958 roku ufundował wysoką nagrodę dla programu, który ogra go chociaż raz na cztery partie. Był pewien, że to nigdy nie nastąpi. Miał pecha: już w 1985 roku przegrał wszystkie cztery partie z drugorzędnym programem komputerowym, który w ocenie informatyków wcale nie był szczególnie wyrafinowany!

Warto opisać także przygodę znanego badacza i publicysty Dreyfusa, który od 1965 roku toczył regularną krucjatę przeciwko wszystkim, którzy twierdzili, że komputer może wykazywać inteligentne działanie. Tymczasem już w 1969 roku Dreyfus przegrał sromotnie z programem Chess 3.0. Nie zdołał nawet zremisować w ani jednej partii!

 

Alan Turing – ojciec inteligencji maszynowej

Zbierając ciekawostki dotyczące historii rozwoju sztucznej inteligencji nie mogę nie wspomnieć o człowieku, który naprawdę wizjonersko nakreślił zasadnicze elementy inteligencji maszynowej. Człowiekiem tym był brytyjski matematyk Alan Turing. Opublikował on w 1949 roku artykuł Computing Machinery and Intelligence („Maszyny obliczeniowe i inteligencja”) [2] zaproponował – jako pierwszy! – pojęcie sztucznej inteligencji.

Rozpętała się burza. Liczba przeciwników koncepcji AI była ogromna, a sama nazwa budziła mnóstwo protestów. Ale Turing przewidział to i odpierał te obiekcje w cytowanym wyżej artykule, co w prezentowanej tu historii warto przytoczyć, bo to była naprawdę błyskotliwa polemika. Między innymi w tym artykule zdefiniowany został dyskutowany potem przez ponad 60 lat tak zwany Test Turinga, który miał dostarczyć empirycznej odpowiedzi na pytanie „Czy maszyna może myśleć?”.

Nie będę jednak streszczał naprawdę genialnych pomysłów Turinga, które zwarł on w artykule [2], natomiast chcę ze smutkiem przypomnieć, jak tego geniusza potraktowano. Mógł on dokonać jeszcze wielu epokowych odkryć w rodzącej się na początku lat 50 XX wieku informatyce i (zwłaszcza!) kreowanej przez niego (jako pierwszego na świecie!) sztucznej inteligencji. Jednak miał on jedną cechę, która w jego czasach była uważana za dramatyczną wadę. Otóż był on homoseksualistą.

W czasie wojny, gdy jego praca była niezbędna przy łamaniu szyfrów, wiedziano o jego skłonnościach, ale wojskowi twierdzili, że pozbędą się go (tak to wyrazili!) dopiero wtedy, gdy zwycięstwo nad Niemcami będzie pewne. I rzeczywiście zwolnili go dopiero pod koniec 1944 roku. Natomiast podczas pracy naukowej w Manchesterze parasola ochronnego nad geniuszem już nie było, więc w 1952 roku wytoczono mu proces (w Wielkiej Brytanii homoseksualizm był uważany za przestępstwo!) i sąd skazał Turinga na długoletnie więzienie – albo kastrację. Turing wybrał to drugie i został wykastrowany. Nie mógł jednak znieść skutków tego okaleczenia, więc 7 czerwca 1954 roku zamknął się w swojej sypialni i popełnił samobójstwo, nagryzając nasączone cyjankiem potasu jabłko. To nadgryzione jabłko jest – zdaniem wielu badaczy rozwoju technik komputerowych do dziś znakiem rozpoznawczym firmy Apple!

 

Claude Shannon: teoria informacji i automatyka

Opisałem wyżej pionierskie dokonania Alana Turinga, który jako pierwszy wskazał na to, że może istnieć i być z pożytkiem wykorzystywany maszynowy intelekt, ale powszechne uznanie sama nazwa „sztuczna inteligencja” zyskała dopiero dzięki konferencji w Dartmouth, która miała miejsce w okresie od 18.06.1956 do 17.08.1956. Konferencja została zwołana z inicjatywy jednego z pionierów AI, Johna McCarthy’ego.

W konferencji wzięło udział 20 znakomitych specjalistów, których nazwiska łatwo odszukać w Internecie. Natomiast ja chcę tutaj przedstawić jednego absolutnie wybitnego uczestnika tej konferencji, jakim był niewątpliwie Claude Shannon. Podczas uczestnictwa w konferencji w Dartmouth Shannon miał już za sobą wspaniałą przeszłość, co oczywiście nie przeszkadzało w tym, że wielu doniosłych rzeczy miał jeszcze potem też dokonać. Jego praca magisterska na MIT obroniona w 1937 roku i rok później opublikowana, zatytułowana Symboliczna analiza obwodów przekaźnikowych i przełączających wniosła rewolucyjny wkład do tej dziedziny elektroniki, z której wywodzą się obecne komputery i cyfrowe systemy łączności. Shannon powiązał techniczne aspekty układów przełączających z algebrą Boole’a. To był klucz do budowy automatycznych central telefonicznych, a potem (w latach 40.) pierwszych komputerów.

Za tę pracę magisterską Shannon otrzymał w 1939 roku Nagrodę Alfreda Nobla. Nie była to nagroda przyznana – jak typowe nagrody Nobla – przez Królewską Szwedzką Akademię Nauk, tylko nagroda przyznawana przez Amerykańskie Stowarzyszenie Inżynierów Budownictwa (American Society of Civil Engineers) jako powiernika funduszy nagród przekazywanych przez połączone stowarzyszenia inżynierskie całych Stanów Zjednoczonych. Czasem w biogramach pisze się, że „Shannon dostał Nobla” co bywa mylące. Jednak Shannon został naprawdę bardzo wyróżniony. To chyba jedyna w dziejach tej rangi nagroda za pracę magisterską!

W 1945 roku Shannon był jednym z autorów raportu NDRC, w którym zdefiniowano podstawy nowoczesnego przetwarzania danych – fundamentu całej informatyki. Jego praca z 1948 roku A Mathematical Theory of Communication położyła z kolei podwaliny pod teorię informacji. Jego maszyna o nazwie Tezeusz była pierwszym urządzeniem elektrycznym, które uczono się metodą prób i błędów i była jednym z pierwszych przykładów działającej sztucznej inteligencji. Warto przypomnieć tak wybitną i – zgodnie z założeniem tego artykułu – niezwykłą postać!

 

Frank Rosenblatt i Perceptron – pierwsze sieci neuronowe

Jedną z najsilniej rozwijających się gałęzi sztucznej inteligencji jest technika sieci neuronowych – systemów technicznych wzorowanych na ludzkim mózgu. Za osiągnięcia w dziedzinie rozwoju i zastosowań sieci neuronowych w zeszłym roku (2024) przyznano cztery Nagrody Nobla. Było to wydarzenie bez precedensu. Przyznawana od 1901 roku Nagroda jest – zgodnie z wolą fundatora – przyznawana w dziedzinie fizyki, chemii, fizjologii lub medycyny, literatury, pokoju, ekonomii. Nauk technicznych tu nie ma! A jednak właśnie w 2024 roku po raz pierwszy w historii owe Nagrody otrzymali technicy – informatycy zajmujący się działem sztucznej inteligencji określanym jako sieci neuronowe. Byli to John Hopfield i Geoffrey Everest Hinton w dyscyplinie Fizyka oraz Demis Hassabis i John Jumper w dyscyplinie Chemia.

Ja jednak chciałbym przy okazji wzmianki o sieciach neuronowych wspomnieć o bardzo barwnej postaci Franka Rosenblatta. Warto podkreślić, że Rosenblatt nie był informatykiem, tylko naukowcem zajmującym się w Cornell Aeronautical Laboratory w Buffalo psychologią badawczą. Początkowo nie interesował się wcale AI, tylko badał inteligencję szczurów. Konkretnie obserwował, jak uczyły się one reakcji na określone bodźce.

W pewnym momencie spróbował jednak wyobrazić sobie, co też się dzieje w mózgu takiego uczącego się szczura. Przestudiował informacje o neuronach, synapsach i zmianach wag synaptycznych będących podstawą procesu uczenia, a następnie wymyślił sposób przeniesienia tego wszystkiego do systemu technicznego w postaci ważnego (obecnie) narzędzia sztucznej inteligencji, jakim była pierwsza ucząca się sztuczna sieć neuronowa. Jego Perceptron (pisany z dużej litery, bo to była wtedy nazwa własna) został zbudowany i publicznie zademonstrowany 23 czerwca 1960 roku.

 

Budowa Perceptronu – prymitywna kamera i 512 neuronów

Rosenblatt miał szczęście do ludzi. Między innymi pozyskał do realizacji swojej koncepcji bardzo zdolnego i pomysłowego konstruktora Charlesa Wightmana. To dzięki jego pomysłowi do wejścia Perceptronu dołączona była specjalnie skonstruowana matrycowa kamera elektroniczna, która przekazywała do sieci neuronowej obrazy, które należało rozpoznawać. W tamtych czasach kamer cyfrowych jeszcze nie było, więc Wightman zestawił „siatkówkę oka” z odpowiednio rozmieszczonych fotokomórek z siarczku kadmu, tworzących matrycę o rozmiarach 20 x 20 elementów (zaledwie 400 pikseli!). Prymitywną, ale działającą!

Owa „siatkówka oka” Perceptronu była podłączona do warstwy złożonej z 512 sztucznych neuronów. Każdy piksel „siatkówki” mógł być podłączony do maksymalnie 40 sztucznych neuronów. O te połączenia wybuchła awantura. Współpracownicy Rosenblatta chcieli, żeby schemat połączeń miał jakąś zorganizowaną formę (tak, jak jest to we współczesnych sieciach neuronowych). Rosenblatt uparł się jednak, że połączenia te mają być losowe dla zamanifestowania swojego przekonania, że w systemie wzrokowym człowieka (i zwierząt) połączenia fotoreceptorów z korą mózgową są właśnie losowe.

Te losowe połączenia były realizowane w taki sposób, że Rosenblatt używał rekwizytów z Las Vegas. Popisywał się! Uruchamiał ruletkę, rzucał kostkami lub wyciągał karty i zależnie od wyniku wykonywał połączenie. To nie było dobre rozwiązanie. W późniejszych sieciach neuronowych używano połączeń typu „każdy z każdym” – i tak to się robi do dziś. Ale doświadczenie Rosenblatta pokazało, że nawet całkiem przypadkowo uformowana struktura sieci neuronowej może – dzięki procesowi uczenia – doprowadzić do celowego i skutecznego działania. Element uczenia jest w sztucznej inteligencji generalnie silniejszy, niż element a priori wyznaczonej struktury!

 

Mechaniczne uczenie maszynowe

Sztuczne neurony (w liczbie 512) były połączone z jednostkami wyjściowymi sygnalizującymi, co zostało rozpoznane. Tych jednostek wyjściowych było 8, zatem Perceptron mógł sygnalizować rozpoznanie jednej z 8 kategorii. Te połączenia były realizowane przez sztuczne neurony, które mogły w trakcie uczenia same zmieniać swoje wagi. I to właśnie była sprawa o kluczowym znaczeniu!

Owa samodzielna zmiana wag była osiągnięta w bardzo pomysłowy sposób. W latach 50. XX wieku nie było układów elektronicznych, które by mogły zmieniać swoje parametry, więc Charles Wightman zastosował rozwiązanie elektromechaniczne. „Wagą” była zmienna oporność tak zwanego potencjometru, a zmianę tej oporności uzyskiwano obracając gałkę potencjometru za pomocą małego silniczka elektrycznego, sterowanego przez mechanizm uczenia sieci. W ten sposób wagi mogły być zamieniane automatycznie, przez samą uczącą się sieć. To działało! [3]

Wykorzystanie Perceptronu przebiegało w następujący sposób: przed cyfrową kamerą ustawiano planszę z obrazem (np. litery). Sieć sygnalizowała, do jakiej kategorii zaliczyła pokazywany obraz, po czym nauczyciel wysyłał do sieci sygnał aprobaty („nagrody”) albo informację o błędzie (sygnał „kary”). W przypadku aprobaty wagi neuronów pozostawały niezmienione, natomiast w przypadku błędu neurony same zmieniały wagi.

Prowadząc doświadczenie z Perceptronem, Rosenblatt był jak odkrywca poznający nowy ląd. Dlatego jego eksperymenty i ich wyniki zdecydowanie stanowią „kamienie milowe” w historii sztucznej inteligencji. Rosenblatt robił różne eksperymenty. Przyszedł pewnego razu do laboratorium, gdzie był dobrze wytrenowany Perceptron – i zaczął go demolować. Tu wyrwał z panelu jakiś sztuczny neuron! Tam zerwał jakieś połączenie! Okazało się, że mimo dewastacji struktury nauczona sieć neuronowa przez długi czas nie traciła swoich umiejętności. To także jedna ze znanych dziś jej właściwości.

 

Zakończenie

W tym krótkim artykule nie zdołałem zmieścić wszystkich zdarzeń, jakie miały miejsce podczas pół wieku rozwoju sztucznej inteligencji. Czytelnikom zainteresowanym tym tematem polecam książkę [1], którą warto upolować, chociaż ukaże się ona dopiero na początku przyszłego roku. Zachęceni tymi anegdotami zainteresujmy się nie tylko tym, jaka sztuczna inteligencja jest teraz – ale jaka była i jak się rozwijała.

 


Literatura

  1. Tadeusiewicz R.: Krótka historia informatyki, Read Me, Warszawa, 2019 (ISBN 978-83-8151-190-2)
  2. Turing A.M.: Computing Machinery and Intelligence. Mind 1949: 433-460
  3. Rosenblatt F.: The perceptron: a probabilistic model for information storage and organization in the brain. Psychological Reviews 65 (1958): 386–408

Ryszard Tadeusiewicz – polski automatyk i informatyk, profesor nauk technicznych, popularyzator nauki, trzykrotny rektor Akademii Górniczo-Hutniczej, członek rzeczywisty Polskiej Akademii Nauk i członek korespondent Polskiej Akademii Umiejętności

Artykuł znajdziesz również w numerze 12/2025 miesięcznika „Napędy i Sterowanie”.

Przeczytaj również

Nauka

6 grudnia 2025

Przekształtnik 3kV DC/230V AC do zasilania kolejowych urządzeń nietrakcyjnych – zagadnienia konstrukcyjne

Aktualności, Technologie i produkty

5 grudnia 2025

Wysoka elastyczność dzięki potężnemu systemowi modułowemu

Nowości techniczne

4 grudnia 2025

Optidrive E4 – nowy przemiennik częstotliwości firmy INVERTEK DRIVES dla automatyki przemysłowej

Nauka

3 grudnia 2025

Druk 3D i drony zmieniają reguły gry w wojnie w Ukrainie

Nasi partnerzy