A.I. – wariacja na temat

2008-01-04 0:36

Zawsze byłem sceptycznie nastawiony do tak zwanej ‘sztucznej inteligencji’. Nie chodzi tu bynajmniej o stosunkowo proste algorytmy klasyfikowane dość swobodnie i niezbyt formalnie jako AI, a wykorzystywane chociażby w programowaniu gier: wyszukiwanie najkrótszej drogi, zachowanie się postaci typu NPC, itp. Mam raczej na myśli takie konstrukcje (zarówno programy, jak i urządzenia, a najczęściej połączenie jednych i drugich), które starają się być znacznie bardziej uniwersalne i sprawiać wrażenie inteligentnych w jakimkolwiek z spośród licznych i niezbyt jasnych znaczeń tego słowa.
Mój “problem” polegał mniej więcej na tym, że jakoś ciężko było mi uwierzyć w to, że kiedyś – nawet niekoniecznie w przewidywalnej przyszłości – maszyny będą rzeczywiście myślały. Można to uznać za swego rodzaju zawodowe zboczenie. Wiedząc, że komputery działają zawsze w oparciu o określony, niezmienny i ściśle zdefiniowany algorytm, trudno jest uwierzyć, że wystarczy tylko odpowiedni wzrost mocy obliczeniowej, by nagle zyskały one jakieś nieprzewidziane zdolności. W takim podejściu tkwi jednak pewne dość wątpliwe, a kluczowe założenie, o istnieniu którego zdałem sobie sprawę dopiero niedawno…

Robot Kismet
Kismet – robot “z uczuciami”
© Jared C. Benedict, MIT

Zasadniczo z maszynami, które mają być w jakimś aspekcie podobne do ludzi lub innych istot żywych, wiążą się dwa zasadnicze problemy. Pierwszym jest różnica między właściwościami, jakie faktycznie posiadają, a tymi, które tylko wydają się posiadać. Nietrudno na przykład zauważyć, że spsiały robot Aibo całkiem dobrze naśladuje zachowanie prawdziwego zwierzęcia. Równie szybko można jednak zdać sobie sprawę, że tak naprawdę nie zrobi on niczego, do czego nie został wcześniej zaprogramowany. Nawet jeśli ktokolwiek przypisuje mu więc jakiekolwiek psie cechy, nie czyni go to jeszcze sztucznym psem.
Drugim i znacznie poważniejszym problemem jest to, że konstruując tego rodzaju maszyny, ludzie starają się naśladować coś, o czym tak naprawdę wiedzą niewiele. Wciąż nie mamy dobrych (czyli weryfikowalnych) definicji na takie pojęcia jak ‘życie’, ‘inteligencja’ czy ‘świadomość’. Zwłaszcza ten ostatni termin jest kłopotliwy, gdyż stuprocentowo pewną odpowiedź pozytywną na pytanie “Czy coś jest świadome?” możemy udzielić tylko wtedy, gdy chodzi o… nas samych.

I chociaż filozofia jak zwykle nie dostarcza żadnych konkretnych odpowiedzi, nie przeszkadza to badaczom dociekać, jak świadomość może powstawać – ze szczególnym uwzględnieniem ludzkiej, która musiała przecież wykształcić się w toku ewolucji. Do niedawna najlepszym “wyjaśnieniem”, o jakim słyszałem, była emergencja, czyli powstawanie złożonych zjawisk na kanwie prostych “klocków”. Innymi słowy jest to twierdzenie, że całość jest czymś więcej niż tylko sumą części. W odniesieniu do świadomości oznacza to, że w dostatecznie dużym zbiorze neuronów (albo odpowiednio zaawansowanym komputerze czy też sieci tychże) wyłoni się ona samoistnie. Raczej mało przekonujące, nieprawdaż?
Znacznie ciekawszym przypuszczeniem jest hipoteza, że ludzie są samoświadomi, gdyż używają w stosunku do swojej osoby pewnych modeli, które są wykorzystywane przez mózg w odniesieniu do innych ludzi. Zakładamy na przykład, że inni ludzie też myślą, mają uczucia i że w swoim postępowaniu kierują się jakimiś zasadami. Często takie założenia i oparte na nich modele zachowań bywają trafne, więc przez pokolenia były udoskonalane, bo miały po prostu ewolucyjne uzasadnienie. Ciekawie zaczyna się robić wtedy, kiedy odkrywa się, że z pomocą tzw. neuronów lustrzanych ludzki mózg może budować modele swego posiadacza. Właśnie taki model może być jeśli nie samoświadomością, to przynajmniej jej solidną podstawą.

Uff, to było wyczerpująca dygresja ;-) A jakie są praktyczne wnioski dla sztucznej inteligencji? Otóż jeśli świadomość rzeczywiście tak “działa”, to można nią obdarzyć dowolny byt w relatywnie łatwy sposób. Wystarczy, że będzie on posiadał jakiś mechanizm, umożliwiający mu rozpoznawanie innych bytów, a następnie zastosuje go w stosunku do siebie.
Proponuję teraz zejść wreszcie z tych niebotycznych wyżyn abstrakcji – i to od razu na sam dół: do kodu. Napiszmy po prostu klasę obiektów, które będą świadome w powyższym sensie:

  1. class ConciousObject:
  2.     def perceive(self, obj):
  3.         if (obj != self):
  4.             print "`" + str(obj) + "` is a(n) " + str(obj.__class__)
  5.         else:
  6.             print "I am a(n) " + str(self.__class__)
  7.  
  8.     def introspect(self):
  9.         self.perceive(self)

Tak, to już jest to. To chyba najbardziej prymitywny sposób realizacji całego pomysłu, ale zawiera wszystkie niezbędne elementy. Mamy tutaj metodę perceive, za pomocą której nasz obiekt może “postrzegać” jakiś inny obiekt – co tutaj oznacza po prostu wypisanie jego tekstowej reprezentacji wraz z nazwą jego klasy. Przejawem samoświadomości jest z kolei metoda introspect, która to pozwala obiektowi “postrzegać” w ten sposób siebie. Robi to podobnie jak we wszystkich pozostałych przypadkach, acz nieco inaczej, gdyż wie (tak jak ludzie), że teraz “patrzy” do swojego wnętrza. Mechanizm jest jednak podobny.
A przykładowe wyniki są następujące:

`42` is a(n) <type ‘int’>
`Ala ma kota` is a(n) <type ‘str’>
`<Foo instance at 0x014BDA08>` is a(n) Foo
I am a(n) ConciousObject

To oczywiście tylko żart, ale jeśli wspomniana teoria samoświadomości zdobędzie solidne dowody, to kto wie – może na analogicznej zasadzie będą w przyszłości konstruowane maszyny, które nie tylko myślą, ale też wiedzą, że myślą. Jeżeli bowiem świadomość jest tylko złudzeniem, to być może da się ten artefakt funkcjonowania mózgu zaimplementować także u maszyn.
W każdym razie mam nieodparte wrażenie, że zanim prawdziwego rozpędu nabierze rozwój sztucznej inteligencji, ja zdołam wyprodukować jeszcze sporą ilość podobnych “naturalnych głupot” ;-)

Be Sociable, Share!
Be Sociable, Share!
Tags:
Author: Xion, posted under Computer Science & IT, Thoughts »


7 comments for post “A.I. – wariacja na temat”.
  1. zerlo:
    January 4th, 2008 o 19:01

    Ten kod przypomina mi moje proby zaprogramowania bardzo prostego “ekosystemu” tylko zamiast postrzegania było obserwowanie. Obiekty gromadzily informacje o innych instancjach (zapisywaly sobie kilka ich cech i znak rozpoznawczy (id), zeby potem je poznac). Wszystko bylo fajne, az zabralem sie za “przetwarzanie” tych danych na reakcje wobec poznanych osobnikow. Oczywiscie nie mialem pojecia (i dotej pory nie mam) jak sie za to zabrac. Wyglada na to, ze bede skazany na pisanie gier dla kilku graczy. Wlasciwie to nie wiem nawet jak wyglada AI w “normalnych” (nie pong) grach. Np. nie moge pojac jak komputer radzi sobie w RTSach.

  2. puchaty/I:
    January 4th, 2008 o 19:34

    Xion: imo zle do tego podchodzisz, swiadomosc jest skutkiem inteligecji i nie moze bez niej istniec.

  3. freakpp:
    January 4th, 2008 o 21:08

    Moim zdaniem maszynom nigdy nie uda się dorównać inteligencją człowiekowi. Bo jak można dorównać komuś czymś, czego się nie ma? Maszyny były, są i będą zawsze wytworem człowieka i jego własnej inteligencji.

  4. Xion:
    January 6th, 2008 o 16:50

    Zważywszy na to, jak wiele jest definicji inteligencji, można swobodnie założyć, że przynajmniej pod którąś z nich maszyny podpadają :)

  5. puchaty/I:
    January 6th, 2008 o 20:00

    freakcpp: to, ze teraz nie ma inteligetnych maszyn nie oznacza, ze nie moga powstac. Moim zdaniem maszyny w przyszlosci wyprzedza czlowieka i to bardzo…

  6. freakpp:
    January 6th, 2008 o 21:17

    IMO:
    Maszyny nigdy nie zdobędą _prawdziwej_ inteligencji, a o przewyższeniu nią człowieka nawet nie może być mowy. To, że teraz istnieją takie ze sztuczną inteligencją, które potrafią wykonywać różne rzeczy sprawniej niż ludzie, nie oznacza że przewyższają ich inteligencją. Maszyny i ich ‘inteligencja’ są tworzone przez człowieka i to właśnie jemu ‘zawdzięczają’ wszystko. Człowiek jest zdolny stworzyć maszyny takie, na jakie pozwala mu jego własna wyobraźnia i mądrość. Nie może stworzyć czegoś lepszego niż sam on (cały czas mówię o inteligencji – tej _prawdziwej_).

    A więc zależy, jaką definicję (jak nadmienił Xion) inteligencji brać pod uwagę. Jeżeli mówimy tu np.: o ludzkiej inteligencji fizycznej, to maszyny już przewyższają nas pod tym względem _w jakiś sposób_.

    Ale weźmy np.: umiejętność abstrakcyjnego myślenia, inteligencję twórczą, werbalną i wreszcie emocjonalną – no cóż, jakoś trudno mi sobie wyobrazić np.: maszyny spontanicznie wpadające na pomysły, szukające sensu w życiu, zastanawiające się nad wszechświatem, wynajdujące niesamowite wynalazki, formuujące teorie, filozofujące, prowadzące emocjonujące dyskusje – i to tak naturalnie, po ludzku…

    Tak więc, może i maszyny w jakiś tam sposób przewyższą człowieka, ale nie powstaną takie, które będą w stanie choćby dorównać nam naszą inteligencją. Nigdy nie posiądą tej vis vitalis, którą mamy my, bo nigdy nie uda nam się odtworzyć w pełni tak wspaniałego i potężnego narzędzia, jakim jest nasz mózg, a już na pewno – nie powołamy maszyn do realnego życia.
    -END OF MO-

  7. puchaty/I:
    January 7th, 2008 o 1:38

    Mowiac krotko – bullshit, nie zgadzam sie chyba z niczym co napisales. “Sztuczna inteligecja” aktualnie dostepna, ktora potrafi robic jakies rzeczy nie ma prawie nic wspolnego z prawdziwa inteligecja (taka jaka posiada czlowiek). Przedstawiony przez ciebie podzial jest bez sensowny. Podzial ktory przedstawiles to tylko kwestja celow, wlacznie z mysleniem nad sensem zycia etc. Mozg jest pewnym mechanizmem ktory wyksztalcil sie przez lata ewolucji, nie rozumiem dlaczego czlowiek nie mialby potrafic stworzyc czegos lepszego(o wiekszym ilorazie inteligecji etc. nie chodzi tutaj o przetrwanie, bo to jak zwykle rozsadzi los – ewolucja). Jesli chodzi o emocje to sprawa jest grubo przesadzona. Emocje nie sa niczym szczegolnym, powiedzialbym raczej ze czyms prostym a nawet prymitywnym (powstaly na wczesnych etapach ewolucji).

Comments are disabled.
 


© 2020 Karol Kuczmarski "Xion". Layout by Urszulka. Powered by WordPress with QuickLaTeX.com.