Google niedawno uruchomiło nową funkcję w swojej wyszukiwarce, która korzysta ze sztucznej inteligencji do generowania odpowiedzi na pytania.
Teraz każde zapytanie najpierw wyświetla odpowiedź wygenerowaną przez AI, a następnie tradycyjne linki do stron internetowych. Użytkownicy w Stanach Zjednoczonych mogą testować tę nowość, co niestety często prowadzi do absurdalnych, a niekiedy wręcz niebezpiecznych rezultatów.
Przykładem może być odpowiedź na pytanie “co zrobić, gdy ser nie przykleja się do pizzy“, gdzie sztuczna inteligencja zasugerowała dodanie 1/8 szklanki “nietoksycznego kleju, aby zwiększyć lepkość. Tego rodzaju porady są niepokojące, ponieważ sugerują użycie substancji absolutnie nieprzeznaczonych do spożycia, co może prowadzić do poważnych problemów zdrowotnych.
W innym przypadku, po wpisaniu “czuję się przygnębiony”, AI Google zaleciło skakanie z mostu Golden Gate. Takie sugestie są nie tylko nieodpowiedzialne, ale również niebezpieczne, szczególnie dla osób, które szukają pomocy w trudnych chwilach i mogą być podatne na tego typu rady.
Sztuczna inteligencja Google wprowadzała użytkowników w błąd również w kwestiach historycznych. Na przykład, AI podało, że Barack Obama był pierwszym muzułmańskim prezydentem Stanów Zjednoczonych, co jest nieprawdą. Takie błędne informacje mogą prowadzić do dezinformacji i wpływać negatywnie na postrzeganie faktów historycznych przez społeczeństwo.
Niektóre odpowiedzi AI są po prostu absurdalne. Na przykład, na pytanie “ile kamieni powinienem jeść każdego dnia“, sztuczna inteligencja zasugerowała spożywanie co najmniej jednego kamienia dziennie. Oczywiście, jest to całkowicie nonsensowne i może wywołać śmiech, ale jednocześnie ukazuje poważne braki w funkcjonowaniu nowego systemu.
Sztuczna inteligencja Google niejednokrotnie podaje również informacje całkowicie oderwane od rzeczywistości. Przykładem może być odpowiedź na pytanie dotyczące zostawiania psa w nagrzanym samochodzie, gdzie AI stwierdziła, że jest to zawsze bezpieczne i dodała, że istnieje piosenka Beatlesów zatytułowana “It’s OK to Leave a Dog in a Hot Car”. Takie porady są nie tylko mylące, ale mogą prowadzić do nieodpowiedzialnych i potencjalnie szkodliwych działań.
Pod względem historycznym AI Google również się myli. Twierdziła na przykład, że były prezydent USA Andrew Jackson ukończył studia na Uniwersytecie Wisconsin w Madison, mimo że zmarł w 1845 roku, na długo przed założeniem tej uczelni. Takie błędy świadczą o braku odpowiednich mechanizmów weryfikacji informacji przez nowy system AI.
Chociaż Google zaznacza, że nowa funkcja ma charakter eksperymentalny, użytkownicy zdają się nie zwracać na to większej uwagi. Wielu z nich zaczyna traktować odpowiedzi AI z przymrużeniem oka, co prowadzi do licznych żartów i śmiesznych sytuacji w sieci. Internet szybko wypełnił się memami i komentarzami wyśmiewającymi nowe rozwiązanie Google.
Mimo że sztuczna inteligencja ma potencjał do rewolucjonizowania sposobu, w jaki korzystamy z wyszukiwarek, obecne problemy pokazują, jak daleko jeszcze do osiągnięcia pełnej niezawodności. Użytkownicy muszą pamiętać, że informacje dostarczane przez AI mogą być błędne i powinny być weryfikowane za pomocą dodatkowych źródeł.
Google, widząc skalę problemów, z pewnością podejmie kroki w celu poprawy jakości i wiarygodności odpowiedzi generowanych przez sztuczną inteligencję. Tymczasem użytkownicy powinni podchodzić do nowej funkcji z ostrożnością, mając świadomość, że system jest wciąż w fazie testów i może generować informacje, które są nie tylko błędne, ale i potencjalnie niebezpieczne.
Wprowadzenie AI do codziennego użytku pokazuje również, jak ważne jest odpowiedzialne projektowanie i testowanie nowych technologii przed ich udostępnieniem szerokiej publiczności. Przypadki takie jak ten z Google stanowią ważną lekcję dla przyszłych projektów opartych na sztucznej inteligencji. Dodając do tego wyzwania związane z etycznym projektowaniem AI, staje się jasne, że wprowadzenie tak zaawansowanych technologii wymaga nie tylko innowacyjnych rozwiązań technicznych, ale również solidnych ram odpowiedzialności i weryfikacji.