OpenAI, lider w dziedzinie sztucznej inteligencji, w swoim najnowszym raporcie przedstawiło zagrożenia, jakie mogą wynikać z intensywnego rozwoju technologii głosowej AI.
Firma ostrzega przed możliwością nawiązywania przez użytkowników emocjonalnych więzi z wirtualnymi asystentami, co może mieć poważne konsekwencje dla relacji międzyludzkich.
Badania pokazują, że użytkownicy, którzy rozmawiają z AI w sposób zbliżony do interakcji z człowiekiem, mogą wpaść w pułapkę nieuzasadnionego zaufania do maszyn. Model GPT-4o, oferujący realistyczny głos, który może przypominać prawdziwą rozmowę z człowiekiem, jest jednym z przykładów, które mogą wzmacniać ten efekt. OpenAI wskazuje, że antropomorfizacja technologii – czyli przypisywanie jej cech i zachowań ludzkich – może prowadzić do głębszego związku emocjonalnego użytkownika z maszyną, co może być problematyczne w dłuższym czasie.
W raporcie firmy znalazły się przykłady sytuacji, w których użytkownicy testujący AI zachowywali się, jakby mieli do czynienia z prawdziwą osobą. Przykładem tego może być sytuacja, w której testerzy wyrażali żal z powodu zakończenia „współpracy” z AI, co wskazuje na silne emocjonalne zaangażowanie, jakie może wywołać ta technologia. Choć takie przypadki mogą wydawać się niewinne, OpenAI uznaje za konieczne dokładne zbadanie tych interakcji, aby lepiej zrozumieć ich długofalowe skutki.
Jednym z poważniejszych zagrożeń, na jakie wskazuje OpenAI, jest możliwość, że długotrwałe korzystanie z głosowej sztucznej inteligencji może osłabić relacje międzyludzkie. Wirtualni asystenci, którzy oferują użytkownikom możliwość przerwania rozmowy w dowolnym momencie i „komunikują się” w sposób bliski człowiekowi, mogą skłaniać ludzi do unikania bardziej wymagających interakcji z innymi osobami. To może prowadzić do osłabienia więzi społecznych i zmiany norm komunikacyjnych.
Innym zagrożeniem związanym z AI jest możliwość nadmiernego uzależnienia od technologii. AI, które zapamiętuje szczegóły rozmów i może realizować różnorodne zadania, staje się narzędziem, na którym użytkownicy mogą zbyt mocno polegać. W rezultacie, ludzie mogą coraz rzadziej podejmować samodzielne decyzje i rozwiązywać problemy, co może mieć negatywne konsekwencje dla ich zdolności do krytycznego myślenia.
Istotnym ryzykiem jest również rozpowszechnianie dezinformacji przez sztuczną inteligencję. Testy przeprowadzone przez OpenAI wykazały, że model GPT-4o, który posiada zaawansowane funkcje głosowe, może zostać użyty do powtarzania nieprawdziwych informacji i teorii spiskowych. Jeśli AI będzie w stanie przekazywać takie treści w sposób wiarygodny, może to prowadzić do poważnych problemów społecznych.
Alon Yamin, współzałożyciel i dyrektor generalny platformy Copyleaks, która zajmuje się wykrywaniem plagiatów za pomocą AI, zwraca uwagę na potrzebę głębszej refleksji nad wpływem tej technologii na życie codzienne i interakcje społeczne. Sztuczna inteligencja, choć ma wiele zalet, nie powinna zastępować prawdziwych relacji międzyludzkich, które są fundamentem zdrowia psychicznego i społecznego.