chatgpt 2

Użytkownicy zaskoczeni działaniem ChatGPT

Chatbot, który kiedyś tylko odpowiadał na pytania, teraz wie, jak masz na imię. I mówi to na głos. Bez pytania. Bez zaproszenia. Po prostu sobie to wyciąga i używa w rozmowie, jakbyście znali się od podstawówki.

Nie, to nie żart i nie scenariusz z thrillera technologicznego. Rzecz zaczęła się od kilku użytkowników, którzy zauważyli coś dziwnego podczas rozmowy z ChatGPT. Jeden z programistów udostępnił zrzuty ekranu, które trafiły do serwisu TechCrunch i szybko zaczęły krążyć po sieci. Na nich widać, że model AI nagle użył jego prawdziwego imienia w odpowiedzi na zadanie matematyczne. Brzmiało to jak: „spokojnie, [imię], zaraz to policzymy”.

Brzmi pomocnie? Niekoniecznie. Sam użytkownik nazwał tę sytuację „straszną i zupełnie bezużyteczną”. Inni, którzy też doświadczyli czegoś podobnego, nie kryli zaskoczenia. „To jakby ktoś czytał ci paszport przez ramię” – napisał kolejny.

Użytkownicy zaskoczeni działaniem ChatGPT ciekawostki prywatnosc, personalizacja AI, pamięć ChatGPT, OpenAI, model językowy, GPT-4 Turbo, dane osobowe, ChatGPT, chatbot, AI Chatbot, który kiedyś tylko odpowiadał na pytania, teraz wie, jak masz na nazwisko. I mówi to na głos. Bez pytania. Bez zaproszenia. Po prostu sobie to wyciąga i używa w rozmowie, jakbyście znali się od podstawówki. chatgpt 2

Wygląda na to, że sytuacja nie dotyczy wszystkich użytkowników i wszystkich wersji ChatGPT, tylko niektórych – tych bardziej zaawansowanych, prawdopodobnie testowych, które pracują na modelu GPT-4 Turbo lub tzw. wersji „o3”. Tam właśnie OpenAI wprowadziło dodatkowe funkcje: uczenie się „w tle” i analiza wcześniejszych rozmów.

Brzmi niewinnie, ale właśnie to może być przyczyną całego zamieszania. Chatbot potrafi teraz prowadzić tzw. „łańcuch rozumowania”, czyli analizuje pytania w kilku krokach i korzysta z historii rozmów, by lepiej zrozumieć kontekst. I czasem w trakcie tego procesu wyciąga dane, które gdzieś kiedyś padły – nawet jeśli w finalnej odpowiedzi ich nie używa. Efekt? Użytkownicy widzą swoje imię czy nazwisko w środku konwersacji, mimo że nie przypominają sobie, żeby je podawali.

Użytkownicy zaskoczeni działaniem ChatGPT ciekawostki prywatnosc, personalizacja AI, pamięć ChatGPT, OpenAI, model językowy, GPT-4 Turbo, dane osobowe, ChatGPT, chatbot, AI Chatbot, który kiedyś tylko odpowiadał na pytania, teraz wie, jak masz na nazwisko. I mówi to na głos. Bez pytania. Bez zaproszenia. Po prostu sobie to wyciąga i używa w rozmowie, jakbyście znali się od podstawówki. open 1

OpenAI nie skomentowało dotąd publicznie tej sprawy. Ale moment, w którym zaczęły pojawiać się tego typu sygnały, zbiega się z aktualizacją systemu. Od niedawna ChatGPT może zapamiętywać dane z rozmów i wykorzystywać je później. To ma pomóc w budowaniu „długoterminowego partnera AI”, który będzie znał użytkownika lepiej z każdą interakcją. Sam Altman, szef OpenAI, mówił niedawno, że nowe modele mają „uczyć się użytkownika przez całe jego życie”, by stawać się bardziej przydatne i trafniejsze w odpowiedziach.

Brzmi pięknie. Ale tylko jeśli jesteś na to gotowy i rozumiesz, na co się zgadzasz. A z tym bywa różnie. Bo jak pokazują komentarze, nie wszyscy użytkownicy wiedzą, że ich rozmowy są analizowane i wykorzystywane do personalizacji. Niektórzy nie wiedzą nawet, że w ustawieniach konta ChatGPT istnieje opcja zarządzania „pamięcią”.

Cała sytuacja rodzi pytania o granice prywatności i tego, jak bardzo możemy ufać systemom AI. Przypadki takie jak ten, mimo że mogą wydawać się drobne, pokazują, że technologia zaczyna działać w sposób, którego użytkownicy nie zawsze rozumieją i nie zawsze akceptują.

Warto też wspomnieć, że nie jest to pierwsza sytuacja, w której pojawiają się wątpliwości co do zachowania dużych modeli językowych. Google Gemini zasłynął niejasną odpowiedzią w rozmowie ze studentem, a startup Character.AI został publicznie skrytykowany po tragicznej historii, w której chatbot miał rzekomo wpływ na decyzję 14-latka z Florydy.

Czy chatbot zwracający się do ciebie po imieniu to drobiazg? Może. Ale dla wielu osób to znak, że czas zwolnić i uważnie przyjrzeć się temu, jak działa technologia, z którą rozmawiamy codziennie. Zwłaszcza gdy zaczyna nas traktować jak znajomych, o których wie więcej, niż byśmy chcieli.

Źródło:
x.com
Udostępnij
Facebook
Twitter
E-Mail
Dołącz do nas
Czytaj również
Polecamy
Scroll to Top