top of page
Zdjęcie autoraRyszard Skarbek

Krótka Historia Sztucznej Inteligencji: Rozwój AI w Czasie

historia sztucznej inteligencji

Dziedzina sztucznej inteligencji (ang. AI - Artificial Intelligence) od dziesięcioleci fascynuje naukowców, informatyków i entuzjastów technologii cyfrowych. Jej powstawanie i ewolucja to opowieść o przełomach technologicznych, zaskakujących odkryciach i momentach stagnacji. W tym artykule przyjrzymy się rozwojowi AI, od jej początków po współczesne zastosowania, ukazując kluczowe wydarzenia, osoby i technologie, które ukształtowały tę dziedzinę.


Czym jest sztuczna inteligencja?

Obecnie Sztuczna inteligencja (SI) odnosi się do zdolności maszyn i systemów komputerowych do symulowania ludzkiej inteligencji i pracy ludzkiego mózgu. SI umożliwia robotom i maszynom:


  • rozwiązywanie problemów,

  • podejmowanie decyzji,

  • przetwarzanie języka naturalnego, 

  • samodzielne programowanie, 

  • przewidywanie trendów, 

  • generowanie treści i grafik, 

  • nieustanne uczenie się.


Krótka historia sztucznej inteligencji - kamienie milowe od Testu Turinga po dzień dzisiejszy 

Zanim przejdziemy do intrygujących opowieści, poznajmy najważniejsze daty i wydarzenia:


  • 1950: Alan Turing proponuje tzw. "Test Turinga" jako sposób na ocenę zdolności maszyn do naśladowania ludzkiego myślenia. Ten test stanowi również podwaliny dla późniejszego stworzenia komputerów osobistych. 

  • 1956: Naukowa konferencja w Darmouth, gdzie po raz pierwszy użyto terminu "artificial intelligence". Wymyślił go amerykański naukowiec John McCarthy i od tego momentu jest nazywany ojcem sztucznej inteligencji.  

  • 1966: Powstaje Eliza, prekursor dzisiejszych chatbotów, stworzony przez Josepha Weizenbaum. 

  • 1980: Następuje zwrot w kierunku machine learning. Powstają pierwsze tzw. systemy ekspertowe (ang. expert systems).

  • 2000: Odrodzenie AI. Po trudnym końcu XX wieku wieku następuje dynamiczne przyśpieszenie rozwoju systemów sztucznej inteligencji.  

  • 2020: Rozbudowane modele językowe, takie jak ChatGPT, stanowią przełom i rozpoczynają rewolucję w dziedzinie tworzenia treści.

  • 2023: inteligencja sztuczna staje się kluczowym narzędziem w takich dziedzinach, jak opieka zdrowotna, robotyka i autonomiczne pojazdy.


Narodziny sztucznej inteligencji: Alan Turing i jego wizja

Historia AI zaczyna się od prac brytyjskiego matematyka, informatyka i wojskowego A. Turinga, który w 1950 roku zaproponował nowatorski test. Jego celem była ocena, czy maszyna potrafi myśleć jak człowiek. W ramach tzw. ślepego testu sędzia prowadzi dialog zarówno z maszyną, jak i człowiekiem, nie wiedząc, który rozmówca kim jest. Jeśli sędzia nie potrafi rozróżnić rozmówców, uznaje się, że maszyna zdała egzamin na inteligencję.


Dlaczego ten test jest tak ważny:


  • był to pierwszy krok w praktycznym zdefiniowaniu inteligencji maszynowej,

  • jego znaczenie polega na ustaleniu standardów dla badań nad AI,

  • inspirował dalszy rozwój technologii związanych z informatyką.


Dzięki badaniom Turinga powstały fundamenty współczesnej technologii informacyjnej. 


Konferencja w Dartmouth – początek badań nad AI

W  roku 1956, w czasie 8-tygodniowego letniego projektu badawczego odbywającego się w amerykańskim Dartmouth, John McCarthy wprowadził termin "artificial intelligence".


To wydarzenie uznaje się za narodziny AI jako odrębnej dziedziny nauki. Grupa naukowców, do której oprócz McCarthy'ego należeli również Marvin Minsky, Nathaniel Rochester, Claude Shannon, Allen Newell i Herbert A. Simon, postanowiła o rozpoczęciu badań nad tworzeniem maszyn zdolnych do inteligentnych zachowań. Tak rozpoczął się rozwój sztucznej inteligencji. 


W tym miejscu warto poświęcić jeszcze kilka słów profesorowi McCarthy, który stał się jedną z kluczowych postaci w rozwoju nauki związanej z komputerami, a jego nazwisko znajduje się na oficjalnej liście pionierów tej dziedziny. Stworzył m.in. język programowania LISP i był współtwórcą języka ALGOL. Odegrał również kluczową rolę w wynalezieniu tzw. systemów czasu dzielonego (ang. time sharing). Jego kolega z uczelni, Lester Earnest, tak skomentował to w jednym ze swoich wywiadów:

Internet nie pojawiłby się tak szybko, gdyby nie fakt, że John zainicjował rozwój systemów czasu dzielonego. Ciągle wymyślamy nowe nazwy dla time sharing. Zaczęto nazywać to serwerami... Teraz nazywamy to procesowaniem w chmurze. To nadal jest po prostu podział czasu. John to zaczął. 

Jeśli chodzi o innych pionierów, oprócz J. McCarthy warto również wspomnieć Arthura Samuel, który w 1959 r. jako pierwszy stworzył program grający w warcaby.


ELIZA: historia AI

Kiedy zaczęto programować pierwsze systemy i algorytmy dla maszyn i komputerów 

Badania nad sztuczną inteligencją rozpoczęły się w latach 50. XX wieku. W latach 50., 60. i 70. powstały algorytmy sztucznej inteligencji, które pozwalały maszynom uczyć się i rozwiązywać proste problemy logiczne. 


Logic Theorist

Logic Theorist, stworzony w 1955 r. przez Allena Newella, Clifforda Shawa i Herberta Simona, jest często nazywany pierwszym programem AI. Był to program komputerowy zaprojektowany do imitowania procesu rozumowania ludzkiego poprzez dowodzenie twierdzeń matematycznych w logice pierwszego rzędu.


Logic Theorist był w stanie dowodzić twierdzeń z "Principia Mathematica" autorstwa Bertranda Russella i Alfreda Northa Whiteheada, co było rewolucyjne w tamtych czasach. Zamiast polegania na uporządkowanym zestawie reguł, używał heurystyk, czyli ogólnych strategii podejścia do problemów. Nie tylko weryfikował, czy dany dowód był poprawny, ale mógł też generować nowe dowody dla danej tezy.


Logic Theorist stanowił ważny kamień milowy w ewolucji sztucznej inteligencji pełnej nieoczekiwanych zwrotów. Potwierdził, że maszyny mogą imitować ludzkie procesy myślowe w dziedzinie tak skomplikowanej, jak matematyka.


General Problem Solver (GPS)

Idąc dalej, warto wspomnieć o General Problem Solver (GPS). Był to program opracowany przez Allena Newella i Herberta Simona w latach 1957-1959. GPS był próbą stworzenia ogólnego rozwiązania dla szerokiego zakresu problemów poprzez imitację ludzkich procesów rozumowania.


Głównym celem GPS było próbowanie rozwiązania problemu ogólnej inteligencji — to znaczy stworzenie systemu zdolnego do radzenia sobie z różnymi problemami, a nie tylko ze specjalistycznymi problemami w jednej dziedzinie, tak jak to miało miejsce w przypadku Logic Theorist. GPS potrafił dzielić duże, skomplikowane problemy na mniejsze, a jego główną cechą wyróżniającą była jego zdolność do uogólniania. Mógł być stosowany do różnych zagadnień w wielu dziedzinach, a nie tylko do specjalistycznych zastosowań.


Perceptrony

W kolejnych latach było głośno o perceptronach. Stanowią one jeden z pierwszych modeli opartych o neuron networks i zostały zaprojektowane w latach 50. i 60. XX wieku przez Franka Rosenblatta. Koncepcja perceptronu była inspirowana budową ludzkiego mózgu i próbą modelowania pojedynczych neuronów.


W podstawowej formie perceptron przyjmował wiele wejść, analizował, a następnie generował jedno wyjście. Każde wejście do perceptronu było ważone, co oznacza, że każde wejście miało pewną wartość, która wpływała na końcowe wyjście. Perceptron sumował ważone wejścia, a następnie przekształcał je za pomocą funkcji aktywacji, aby wyprodukować wyjście. Jeśli suma ważonych wejść przekroczyła określony próg, perceptron generował pozytywne wyjście — w przeciwnym razie wynik był negatywny. 


Chociaż perceptrony były krytykowane i ich popularność spadła, stały się ostatecznie podstawą dla późniejszego rozwoju algorytmów uczenia głębokiego. Współczesne neuronowe sieci, które są podstawą wielu zaawansowanych systemów sztucznej inteligencji, rozwijają i rozszerzają koncepcje wprowadzone przez perceptrony, posiadając dodatkowe warstwy i bardziej skomplikowane funkcje aktywacji. Jednak to właśnie prace nad perceptronami zapoczątkowały erę, którą teraz nazywamy uczeniem maszynowym.


Eliza

W 1966 roku, pracujący na Massachusetts Institute of Technology (MIT), Joseph Weizenbaum stworzył Elizę - prosty program komputerowy, który symulował rozmowę. Był to pierwszy przykład przetwarzania naturalnego języka. 


Ten program nie był jednak w żadnym stopniu "świadomy" ani nie miał zdolności do rozwijania się w sposób, w jaki robią to współczesne rozwiązania wykorzystujące sztuczną inteligencję. Główną techniką, której używano, było rozpoznawanie słów kluczowych i generowanie odpowiedzi na podstawie skryptów, a głównym zastosowaniem było symulowanie pracy terapeuty.


Mimo że program był dość prosty, wielu ludzi reagowało na niego tak, jakby naprawdę rozumiał ich uczucia, co zaskoczyło samego Weizenbauma


SHRDLU

SHRDLU stworzony przez Terry'ego Winograda w latach 60. i 70., to narzędzie do procesowania ludzkiego języka, które potrafiło  interpretować i wykonywać polecenia w fikcyjnym środowisku "bloków". Umiało również opisywać i odpowiadać na pytania dotyczące różnych obiektów oraz nimi manipulować. 


DENDRAL

Stworzony w roku 1965 pionierski program z dziedziny chemii, który legł u podstaw wielu późniejszych systemów wnioskowania w różnych innych dziedzinach. Jego autorami byli Edward Feigenbaum i Joshua Lederberg pracujący na Stanford University w Kalifornii. 


MYCIN

Rozwinięty w latach 70. na Uniwersytecie Stanforda, MYCIN był jednym z pierwszych komputerowych systemów medycznych. Miał za zadanie diagnozować infekcje bakteryjne i zalecać odpowiednie antybiotyki.


AAAI

W roku 1979 założono American Association of Artificial Intelligence, która obecnie jest znana jako Association for the Advancement of Artificial Intelligence (AAAI). 


Zima sztucznej inteligencji: Czas stagnacji

W drugiej połowie lat 70. nastąpiła tzw. pierwsza zima sztucznej inteligencji. Zbyt wysokie oczekiwania wobec SI oraz brak mocy obliczeniowej doprowadziły do ograniczenia funduszy na badania. 


Druga zima SI nastąpiła w latach 1987 - 1993. To okres niskiego zainteresowania ze strony konsumentów, opinii publicznej i sektora prywatnego, co znów doprowadziło do zmniejszenia finansowania badań. Zarówno prywatni inwestorzy, jak i rząd stracili zainteresowanie SI i wstrzymali fundusze ze względu na zbyt wysokie koszty w porównaniu do niewielkich korzyści. 


Od początku istnienia komputerów naukowcy dążyli jednak nieustannie do odtworzenia ludzkiego intelektu w maszynie. Od Logic Theorist, pierwszych przymiarek do komputerowego dowodzenia teorii matematycznych, po pierwszego wirtualnego "terapeutę". 


I mimo okresu stagnacji nadal pracowali nad nowymi technologiami. Oto najważniejsze z nich stworzone w tym trudnym okresie.


Neocognitron

Wprowadzony przez Kunihiko Fukushima w 1980 r., to protoplasta konwolucyjnych sieci neuronowych, które stały się fundamentem  współczesnego deep learning.


Backpropagation

Ten algorytm wstecznego rozpowszechniania błędu, spopularyzowany w latach 80. przez Geoffrey Hintona, stał się kluczem do skutecznego szkolenia wielowarstwowych sieci neuronowych.


NetTalk

Stworzony przez Terrence'a Sejnowskiego i Charlesa Rosenberga w 1987 r. Ten program uczył się wymawiać słowa tak samo, jak ludzie, co było wczesnym dowodem na możliwości głębokiego uczenia.



sztuczna inteligencja historia: Kasparow vs Deep Blue


Przełomy lat 90.: Inteligentny Deep Blue vs. mistrz świata w szachach

W 1997 roku komputer Deep Blue zbudowany przez firmę IBM pokonał Garri Kasparowa, mistrza świata w szachach. Był to kamień milowy w historii AI, pokazujący, że maszynowa inteligencja może rywalizować z ludźmi przy rozwiązywaniu złożonych intelektualnych zadaniach.


W tym samym roku Windows po raz pierwszy wprowadził oprogramowanie do rozpoznawania ludzkiej mowy. 


AI na początku XXI wieku: Od uczenia maszynowego do głębokiego uczenia

Początki XXI wieku to kolejny okres rozkwitu i ogromnego przyśpieszenia w rozwoju. To również czas wynalezienia zupełnie nowych koncepcji technologicznych. 


Rozwój uczenia maszynowego

Od lat 2000 uczenie maszynowe stało się kluczowym elementem AI. Dzięki dostępowi do dużych ilości danych i potężnej mocy obliczeniowej, maszyny zaczęły się szybko uczyć i automatycznie optymalizować swoje działania.


Głębokie uczenie

Technologie takie jak sieci neuronowe pozwoliły AI rozpoznawać obrazy, przetwarzać mowę i przewidywać trendy z niespotykaną wcześniej dokładnością. 


Watson

IBM Watson to system AI, który w 2011 r. pokonał mistrzów w teleturnieju "Jeopardy!". Pokazał tym samym potencjał AI w przetwarzaniu języka naturalnego i ogólnym rozumieniu.


Siri

W roku 2011 Apple wprowadził na rynek Siri, pierwszego popularnego asystenta wirtualnego.


AlexNet

W 2012 r. sieć zaprojektowana przez Aleksa Krizhevsky'ego, Ilyę Sutskevera i Geoffrey'a Hintona, osiągnęła przełomowe wyniki w konkursie rozpoznawania obrazów ImageNet, przyspieszając rozwój głębokiego uczenia.


AlphaGo

W 2016 roku AlphaGo, program stworzony przez DeepMind, pokonał mistrza świata w grze Go, uznawanej za bardziej skomplikowaną niż szachy. 


Te wszystkie wyżej wymienione projekty, wraz z wieloma innymi, kładły podwaliny pod nowoczesne technologie AI i były kolejnymi punktami zwrotnymi w jej ewolucji.


Droga rozwoju AI była pełna zakrętów, wątpliwości i sceptycyzmu, ale krok po kroku prowadziła nas do dzisiejszych zaawansowanych systemów, takich jak ChatGPT. 



jak powstała sztuczna inteligencja: ChatGPT


Nowoczesne modele przetwarzania języka naturalnego: ChatGPT i inni

Rozwój sztucznej inteligencji niesie ze sobą od zawsze jeden cel główny: pełne operowanie językiem naturalnym. Aby to osiągnąć, dotychczas wykorzystywano reguły gramatyczne i podejście lingwistyczne, metody statystyczne lub wspomniane wcześniej sieci neuronowe (np. LSTM). Najbardziej zaawansowane rozwiązania potrafiły odnaleźć kontekstowe powiązanie między słowami w szerokiej skali, jednak nadal uciekał im sens dłuższych wypowiedzi.


Prawdziwy przełom nastąpił w roku 2017 r. kiedy opublikowano słynną pracę „Attention is All You Need” i opisano mechanizm tzw. transformera. Okazał się on być kluczowym do rozumienia dłuższych wypowiedzi. Bazując na architekturze transformera, zaczęły powstawać coraz większe sieci, trenowane na coraz większych zbiorach danych. Jednym z najważniejszych modeli wykorzystujących architekturę transformerów był model BERT (ang. Bidirectional Encoder Representations from Transformers).


Następnym krokiem w rozwoju jest opracowanie modelu o nazwie Generative Pre-trained Transformer. W roku 2020 firma OpenAI rozpoczęło testowanie wersji beta GPT-3, która potrafiła już generować treści (czyli pisać teksty, tworzyć poezję lub kod komputerowy). Chociaż nie był to pierwszy model tego typu, był jednak pierwszym, którego treści były niemal nie do odróżnienia od tych stworzonych przez ludzi. Takie modele charakteryzują się bardzo dużą liczbą parametrów, stąd ich ogólna nazwa Duże Modele Językowe (ang. LLM Large Language Models).


GPT-3, poprzednik wersji używanej w najnowszej wersji ChatGPT 4, ma 175 miliardów parametrów. Dla porównania, wspomniany wcześniej BERT korzystał z 340 milionów parametrów. 


W listopadzie 2022 roku następuje kolejny przełom. Firma OpenAI udostępnia publicznie narzędzie ChatGPT 3.5. Pierwszy milion użytkowników zarejestrował się w ciągu pięciu dni od premiery. W ciągu zaledwie dwóch miesięcy liczba użytkowników osiągnęła poziom 100 mln. 


W listopadzie 2023 Microsoft ogłasza wprowadzenie narzędzia Copilot dla Office 365. To zintegrowany asystent, który wspiera użytkowników w codziennych zadaniach biurowych poprzez automatyczne generowanie treści i analizowanie danych.


W grudniu 2023 Google uruchamia Gemini 1.5, najnowszą wersję swojego modelu SI, łączącą technologię chatbotów z multimodalnym przetwarzaniem obrazów i tekstu.


W kwietniu 2024 firma Meta AI ogłasza model LLaMA 3, przeznaczony do szybszej i bardziej energooszczędnej analizy danych na dużą skalę.


Warto również podkreślić, że w sierpniu 2024 zespół polskich badaczy wprowadza pierwszy wysoko rozwinięty polski model językowy o nazwie Bielik. Jest przystosowany do specyfiki języka polskiego oraz zdolny do analizy i generowania tekstów w sposób zbliżony do najnowszych modeli globalnych.


Inteligentne Roboty

Oto lista najciekawszych wydarzeń napędzających postęp robotyki:


  • 1929: Japoński profesor Makoto Nishimura zbudował pierwszego japońskiego robota o nazwie Gakutensoku.

  • 1961: Pierwszy robot przemysłowy Unimate rozpoczął pracę na linii montażowej w General Motors w New Jersey, zajmując się transportem odlewów i spawaniem części samochodowych (co uznano za zbyt niebezpieczne dla ludzi).

  • 2000: Profesor Cynthia Breazeal opracowała pierwszego robota, który mógł symulować ludzkie emocje za pomocą twarzy, w tym oczu, brwi, uszu i ust. Nazywał się Kismet.

  • 2002: Wprowadzono na rynek pierwszego robota Roomba.

  • 2003: NASA wysłała na Marsa dwa łaziki (Spirit i Opportunity), które poruszały się po powierzchni planety bez ingerencji człowieka.

  • 2016: Hanson Robotics stworzył humanoida o imieniu Sophia, który jako pierwszy otrzymał formalne obywatelstwo w roku 2017. Sophia była pierwszym robotem o wyglądzie człowieka, wyposażonym w zdolność widzenia, odtwarzania emocji i komunikowania się.

  • 2017: robot XiaoYi zdał chiński egzamin lekarski, stając się pierwszą sztuczną inteligencją, która osiągnęła taki wynik.


Pojazdy autonomiczne

  • 1961: James L. Adams stworzył The Standford Cart, który stał się jednym z pionierskich prototypów autonomicznego pojazdu. W roku 1979 z powodzeniem poruszał się po pomieszczeniu pełnym krzeseł bez ingerencji człowieka.

  • 1986: Ernst Dickmann i jego zespół z Uniwersytetu Bundeswehr w Monachium stworzyli i zaprezentowali pierwszy samochód bez kierowcy (inaczej robot samochodowy). Mógł poruszać się z prędkością do 55 mil na godzinę na drogach, które nie miały innych przeszkód ani poruszających się pojazdów.

  • 1997: Japończycy zbudowali prototyp pierwszego w historii bezzałogowego pojazdu pasażerskiego, wprowadzając kamery, które  przekazywały dane do komputera w celu przetworzenia obrazów drogi. Mógł osiągnąć prędkość powyżej 30 km/h.

  • 2005: pierwszy w pełni autonomiczny samochód przemierzył pustynię. Można go podziwiać do dziś w Smithsonian Institution National Museum of American History.

  • 2014: Tesla Motors demonstruje pierwszą wersję autopilota. Samochód o nazwie Model S potrafi kontrolować pas ruchu. Cechuje się też umiejętnością hamowania i dostosowywania do ograniczeń prędkości dzięki rozumieniu znaków drogowych. Zapewnia również samodzielne parkowanie i jest wyposażony w możliwość automatycznej aktualizacji  oprogramowania. 

  • 2018: firma Waymo uruchomiła w amerykańskim mieście Phoenix pierwszą w pełni bezzałogową usługę taksówkową.

  • 2021: Samochód Ioniq 5 Robotaxi firmy Hyundai osiąga Poziom 4 autonomii (najwyższy zdefiniowany poziom to 5). Pojazd ma być wykorzystywane w transporcie publicznym od 2023 roku.


Zastosowania Sztucznej Inteligencji w Przyszłości: Co nas czeka?

Przyszłość AI niesie wiele możliwości, ale także wyzwań związanych z etyką i bezpieczeństwem. Jedną ze spraw kluczowych dla dalszego rozwoju będzie więc prawne uregulowanie wszelkich aspektów związanych z tą niezwykle dynamiczna dziedziną.


Obszary, w których możemy spodziewać się szybkiego postępu są następujące:


  • Rozwój tzw. ogólnej sztucznej inteligencji (ang. AGI - Artificial General Intelligence), zdolnej do wykonywania dowolnego zadania intelektualnego.

  • Zastosowanie AI w badaniach naukowych i eksploracji kosmosu.

  • Coraz bardziej wyrafinowane i skuteczne rozwiązania dla medycyny i opieki zdrowotnej

  • Udoskonalenie autonomicznych systemów w transporcie i robotyce





Zobacz także

Moja rozmowa z AI - Google Gemini w akcji

Co Noam Chomsky sądzi o ChatGPT


Historia coachingu - od wieku XIX po dzień dzisiejszy

Zawody przyszłości - ranking profesji 2024


35 wyświetleń0 komentarzy

Ostatnie posty

Zobacz wszystkie

Comments


Post: Blog2_Post
bottom of page