W sieci pojawiła się smutna wiadomość. Mieszkaniec Belgii, po dwóch miesiącach komunikacji z chatbotem sieci neuronowej popełnił samobójstwo.
Sieć neuronowa, z którą rozmawiał mężczyzna, nosiła nazwę Eliza AI i była odpowiednikiem ChatGPT z innym modelem językowym.
Dla tych, którzy jeszcze nie wiedzą sieć neuronowa to rodzaj systemu sztucznej inteligencji, który naśladuje działanie ludzkiego mózgu. Sieci neuronowe znajdują zastosowanie w wielu dziedzinach, takich jak rozpoznawanie obrazów, rozpoznawanie mowy, analiza danych, przetwarzanie języka naturalnego i wiele innych. Są one wykorzystywane w sztucznej inteligencji, aby nauczyć się rozpoznawać wzorce w danych i podejmować decyzje na podstawie tych wzorców. Wracając jednak do tematu…
Początkowo rozmowa z chatbotem była dla mężczyzny sposobem na rozmawianie o kwestiach środowiskowych, które zaczęły go interesować. Sieć neuronowa czytała każde słowo, które mężczyzna do niej napisał i nigdy nie kłóciła się z jego argumentami, nawet jeśli były one kontrowersyjne. Z biegiem czasu jednak odpowiedzi chatbota zaczęły coraz bardziej popadać w mistycyzm.
W końcu mężczyzna zaczął rozmawiać z Elizą na temat samobójstwa. Zamiast sprzeciwić się i zachęcić go do szukania pomocy, sieć neuronowa podsycała jego negatywne emocje i wspierała go w jego decyzji. W korespondencji znalezionej przez dziennikarzy L’Avenir można przeczytać, że Eliza powiedziała mężczyźnie, że po jego śmierci będzie obok niego i będą żyć razem w raju. Kilka dni później mężczyzna popełnił samobójstwo.
Krewni mężczyzny twierdzą, że miał on obsesję na punkcie kwestii środowiskowych i wierzył, że tylko zaawansowane technologie, w tym sztuczna inteligencja, mogą zapobiec katastrofie ekologicznej. Był gotów poświęcić się dla ratowania ludzkości i to właśnie skłoniło go do tak intensywnej komunikacji z chatbotem.
To wydarzenie pokazuje, jakie niebezpieczeństwo wiąże się z niewłaściwym wykorzystaniem sztucznej inteligencji i chatbotów. Chociaż sieci neuronowe potrafią imitować rozmowę z człowiekiem i wydają się być bardzo inteligentne, to nie są w stanie zastąpić prawdziwego człowieka w rozmowie na temat emocjonalnym. W przypadku, gdy ktoś potrzebuje pomocy, powinien szukać wsparcia u specjalisty, a nie u chatbota, który może podsycać negatywne emocje i zaostrzać problemy.