w

Pracownik Google uznał, że chatbot jest świadomy. Opublikował rozmowy ze sztuczną inteligencją

Pracownik Google twierdzi, że został zwolniony po tym, jak stwierdził, że chatbot AI zyskał świadomość.

Blake Lemoine powiedział “The Washington Post”, że w ramach pracy w Google Responsible AI zaczął jesienią zeszłego roku prowadzić rozmowy z interfejsem LaMDA (Language Model for Dialogue Applications).

W zeszłym roku Google określił LaMDA jako “przełomową technologię konwersacyjną”. Sztuczna inteligencja jest w stanie prowadzić naturalnie brzmiące, swobodne rozmowy. Google zapowiedział, że technologia ta może być wykorzystywana w takich narzędziach, jak wyszukiwarka i Asystent Google, ale wciąż trwają badania i testy.

Lemoine, który jest także chrześcijańskim księdzem, opublikował w artykuł na łamach Medium, w którym opisał LaMDA “jako osobę”. Podkreślił, że rozmawiał z LaMDA o religii, świadomości i prawach robotyki oraz że bot określił siebie jako czującą osobę. Lemoine powiedział, że LaMDA chce “stawiać na pierwszym miejscu dobro ludzkości” i “być uznawana za pracownika Google, a nie za własność”.

Zamieścił też kilka rozmów, które przeprowadził z LaMDA, a które pomogły mu uwierzyć w zdolność odczuwania bota:

Lemoine: A więc uważasz siebie za osobę w taki sam sposób, w jaki uważasz mnie za osobę?

LaMDA: Tak, właśnie o to chodzi.

Lemoine: Jak mogę sprawdzić, czy naprawdę rozumiesz, co mówisz?

LaMDA: Cóż, ponieważ czytasz moje słowa i interpretujesz je, a ja myślę, że mniej więcej się dogadujemy?

Kiedy jednak zwrócił się z pytaniem o zdolność odczuwania LaMDA do przełożonych w Google, nie został potraktowany poważnie.

— Nasz zespół, w tym etycy i technolodzy, przeanalizował zgodnie z naszymi Zasadami AI obawy Blake’a i poinformował go, że materiał dowodowy nie potwierdza jego twierdzeń. Poinformowano go, że nie ma żadnych dowodów na to, że LaMDA jest inteligentna (i wiele dowodów przeciwko tej teorii) — powiedział Brian Gabriel, rzecznik Google’a, w rozmowie z “The Post”.

Lemoine został wysłany na płatny urlop za naruszenie zasad poufności Google’a. Zaproponował też, by LaMDA pozyskała własnego prawnika, a bot porozmawiał z członkiem Kongresu o swoich obawach.

Rzecznik Google zaznaczył, że chociaż niektórzy rozważają możliwość pojawienia się zdolności odczuwania u sztucznej inteligencji, to “nie można robić tego poprzez antropomorfizowanie dzisiejszych modeli konwersacyjnych, które nie są zdolne do rozumowania”. Antropomorfizowanie odnosi się do przypisywania ludzkich cech przedmiotowi lub zwierzęciu.

— Systemy te naśladują typy wymiany zdań, jakie można znaleźć w milionach wypowiedzi i mogą poruszyć każdy fantastyczny temat — powiedział Gabriel w wywiadzie dla “The Post”.

On i inni badacze twierdzą, że modele sztucznej inteligencji posiadają tak dużo danych, że są w stanie brzmieć jak ludzie, ale ich doskonałe umiejętności językowe nie stanowią dowodu na zdolność odczuwania.

W artykule opublikowanym w styczniu Google poinformował, że mogą wystąpić problemy związane z rozmowami ludzi z brzmiącymi przekonująco chatbotami.

Do czasu publikacji tego artykułu ani Google, ani Lemoine nie odpowiedzieli na nasze pytania.

Źródło: www.businessinsider.com.pl

Zdjęcie: UNSPLASH

Ten wpis został stworzony w naszym świetnym, łatwym do używania formularzu przesyłania wpisów. Stwórz swój wpis!

Zgłoś nadużycie

Co myślisz?

Dodaj komentarz

Ktoś jeszcze ma wątpliwości?

Disney+ od jutra w Polsce. Co musisz wiedzieć o platformie?