twitter x 1

Grok czyta Twoje myśli na X – jak się bronić?

Platforma społecznościowa X, dawniej znana jako Twitter, wprowadziła nową, kontrowersyjną praktykę, która może się wam nie spodobać.

Jak się okazało firma bez uprzedzenia zaczęła analizować posty użytkowników i ich interakcje z chatbotem AI o nazwie Grok. Celem tego działania jest udoskonalenie i rozbudowa możliwości sztucznej inteligencji. Co ciekawe, opcja zezwalająca na wykorzystanie danych do szkolenia AI jest domyślnie włączona.

Użytkownicy zauważyli tę zmianę w piątek, gdy w ustawieniach prywatności pojawił się nowy przełącznik “Udostępnianie danych“. Zgodnie z informacjami od X, wszystkie treści publikowane na platformie, łącznie z interakcjami z Grokiem, mogą być teraz używane do “szkolenia i dostrajania” AI. To znaczne poszerzenie bazy danych treningowych dla Groka, który wcześniej opierał się głównie na ogólnodostępnych tekstach z internetu.

Grok czyta Twoje myśli na X - jak się bronić? ciekawostki X, Twitter, sztuczna inteligencja, prywatnosc danych, personalizacja, moderacja treści, media społecznościowe, Grok, etyka AI, Elon Musk Platforma społecznościowa X, dawniej znana jako Twitter, wprowadziła nową, kontrowersyjną praktykę, która może się wam nie spodobać. grok 1

X twierdzi, że dostęp do bieżących postów użytkowników umożliwi Grokowi udzielanie bardziej adekwatnych i aktualnych odpowiedzi na różnorodne pytania. Jednakże ta decyzja rodzi poważne wątpliwości dotyczące prywatności użytkowników oraz potencjalnego wpływu na jakość i bezstronność treści generowanych przez AI.

Od momentu przejęcia przez Elona Muska w czerwcu 2022 roku za około 44 miliardy dolarów, X przeszedł znaczące zmiany. Pod hasłem propagowania wolności słowa, moderacja treści na platformie została ograniczona. W rezultacie na X można zauważyć wzrost liczby postów zawierających skrajne poglądy, mowę nienawiści, spam i nieprawdziwe informacje. Te zmiany budzą uzasadniony niepokój o jakość danych, które będą wykorzystywane do treningu Groka.

Specjaliści w dziedzinie AI podkreślają, że jakość danych treningowych jest równie ważna jak ich ilość. Istnieje realne zagrożenie, że jeśli Grok zostanie wytrenowany na danych zawierających mowę nienawiści lub ekstremalne poglądy, może nieświadomie powielać te uprzedzenia w generowanych odpowiedziach. To z kolei może prowadzić do tworzenia przez AI szkodliwych lub mylących treści.

X udostępnił opcję rezygnacji dla użytkowników, którzy nie chcą, aby ich dane były wykorzystywane do treningu Groka. Jednak proces ten nie jest intuicyjny i obecnie dostępny tylko w wersji przeglądarkowej platformy. Aby zrezygnować z udostępniania danych, użytkownicy muszą przejść do ustawień prywatności i bezpieczeństwa, następnie do sekcji “Udostępnianie danych i personalizacja”, wybrać opcję “Grok” i wyłączyć przełącznik zezwalający na wykorzystanie ich danych. Bezpośredni link dostępny jest – tutaj.

Ta sytuacja przypomina znane powiedzenie: “Jeśli nie płacisz za produkt, to ty jesteś produktem”. W przypadku X, użytkownicy płacą za korzystanie z platformy swoimi danymi, które są następnie wykorzystywane do rozwijania technologii AI, potencjalnie przynoszącej firmie znaczące zyski.

Decyzja X o wykorzystaniu danych użytkowników do treningu AI bez wyraźnej zgody rodzi również pytania etyczne i prawne. W czasie rosnącej świadomości dotyczącej prywatności danych, takie działania mogą spotkać się z krytyką ze strony organów regulacyjnych oraz organizacji zajmujących się ochroną praw cyfrowych.

Źródło:
9to5mac.com
Udostępnij
Facebook
Twitter
E-Mail
Dołącz do nas
Czytaj również
Polecamy
Scroll to Top