Nasza Loteria SR - pasek na kartach artykułów

Po co maszynom moralność?

prof. Ryszard Tadeusiewicz
prof. Ryszard Tadeusiewicz
prof. Ryszard Tadeusiewicz fot. archiwum
Roboty opiekujące się chorymi, niepełnosprawnymi albo dziećmi, będą musiały posiadać umiejętność dokonywania właściwych ocen i wyborów.

Wiele jest cech, jakich wymagamy od używanych maszyn. Wymienić można sprawność, wydajność, energooszczędność, siłę albo moc. Cenimy także szybkość działania maszyny oraz jej precyzję.
Ale moralność? Czy możemy od maszyny wymagać, żeby była moralna? To chyba nonsens.

Rzeczywiście, typowe maszyny mają niewiele wspólnego z etyką. Niemoralne może być to, co my sami z ich pomocą robimy, ale bez sensu byłoby rozważanie na przykład moralności siekiery. Twory techniki stają się jednak coraz inteligentniejsze i coraz bardziej samodzielne. Takimi je stwarzamy, bo tak jest nam wygodnie. Popatrzmy, jak przebiegał ich rozwój w ciągu stuleci. Najpierw poszliśmy w kierunku mechanizacji. Dzięki temu uwolniliśmy ręce od konieczności wkładania naszej własnej energii w wykonywaną pracę. Siłę mięśni zastąpiła praca maszyn, które korzystały i korzystają z różnych napędzających je silników.

Potem zastosowaliśmy automatykę. Dzięki temu uwalniamy się od konieczności dokładnego sterowania każdą czynnością wykonywaną przez maszynę. Uwalniamy od tego nasze ręce (nie musimy sami kierować maszyną), uwolniliśmy nasze zmysły (nie musimy stale obserwować maszyny), a także uwalniamy nasz umysł. To dobrze, bo sterowanie maszyną to nudne i męczące zajęcie, a automat zrobi to szybciej i dokładniej.

Teraz zmierzamy do maszyn, które uwolnią nas także od konieczności podejmowania decyzji o tym, co należy robić. Takie autonomiczne maszyny będą działać z własnej inicjatywy (ale w naszym interesie!), a więc zwolnią nas nawet od obowiązku wymyślania dla nich zadań.

Jednak w ślad za tą rosnącą autonomią maszyn idzie kwestia konieczności dokonywania przez nie samodzielnie najróżniejszych wyborów. A przecież każdy wybór ma w sobie podtekst moralny. Etyka właśnie do tego nam służy, żebyśmy potrafili odróżnić to, co robić należy, od tego, czego robić nie należy. Wszystkiego przewidzieć się nie da, więc etyki nie można zastąpić sztywnym zbiorem reguł wbudowanych w program automatycznego sterowania. Dlatego maszyna obdarzona autonomią musi zostać wyposażona w zmysł moralny, który będzie ją motywował do wybierania pewnych czynności i powstrzymywał przed innymi czynnościami, właśnie niemoralnymi.

Tworami techniki, w przypadku których ujawnia się problem wyboru sposobu, są roboty. Chodzi o opisywane w felietonie tydzień i dwa tygodnie temu roboty przyszłości, przypominające człowieka i mające podobny do człowieka obszar działania. Takie roboty już niedługo będą nam towarzyszyć w pracy, znajdą się też w naszych domach. Po udoskonaleniu i wielokrotnym sprawdzeniu roboty te w przyszłości będą mogły wykonywać bardzo odpowiedzialne zadania, na przykład opiekować się chorymi, obsługiwać niepełnosprawnych, dozorować bawiące się dzieci. Jeśli jednak takie roboty mają być naprawdę pożyteczne, to trzeba im pozwolić na duży zakres samodzielności, wbudowując im równocześnie umiejętność dokonywania właściwych ocen i prawidłowych wyborów. Brak tych elementów zmusi nas do ich stałego kontrolowania, co zniweczy korzyści związane z wykonywaną przez nie pracą.

Namiastkę moralności robotów stanowią omawiane tydzień temu prawa robotyki, sformułowane przez Asimova. Po Asimovie kwestią moralnego zachowania robotów zajmowali się jeszcze David Langfort, Mark Tilden oraz Eliezer Yudkowsky.

Współcześni konstruktorzy stoją na stanowisku, że sposobem na wyposażenie robota w możliwości stosowania etyki są procesy maszynowego uczenia. Obserwując w różnych sytuacjach zachowania ludzi (o których zakłada się, że postępują etycznie) robot może wytworzyć sobie pewne wzorce tych zachowań, które są wybierane jako etycznie właściwe. Te wzorce robot może następnie sam stosować w nowych, ale podobnych do tych wyuczonych sytuacjach. Dodatkowa możliwość korzystania z etyki przez robota wiąże się z faktem, że jego "mózgiem" jest komputer, czyli maszyna obliczająca. Bowiem jakkolwiek dziwnie by to brzmiało - wartości etyczne można wyliczać, a więc rozstrzygać za pomocą matematyki, co jest moralne, a co nie jest!

Propozycja matematyzacji moralności nie jest nowa. Pierwsze próby stworzenia algebry etyki miały miejsce w XVIII wieku, gdy nad taką właśnie koncepcją pracowali John Stuart Mill oraz Jeremy Bentham. Obecnie te idee rozwijają między innymi Michael i Susan Anderson, którzy wyposażyli w sztuczną moralność robota Nao, produkowanego przez firmę Aldebaran Robotics.

Jest to niewątpliwie dopiero początek długiej drogi i zapewne trzeba będzie jeszcze wielu badań naukowych i wielu doświadczeń praktycznych, zanim będziemy mogli zdać się wyłącznie na moralność robota obsługującego na przykład osobę niepełnosprawną. Ale warto wiedzieć, że takie roboty już powstają, a z czasem będzie ich przybywać.

Może kiedyś to my od nich będziemy się uczyć, jak być moralnym?

Polecamy w serwisie kryminalnamalopolska.pl: Brutalna wojna o turystę. Kto podpala meleksy?
Sportowetempo.pl. Najlepszy serwis sportowy
**MPK Kraków -

wszystko o zmianach w komunikacji Krakowa

**

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Dołącz do nas na X!

Codziennie informujemy o ciekawostkach i aktualnych wydarzeniach.

Obserwuj nas na X!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!
Wróć na gazetakrakowska.pl Gazeta Krakowska