Apple Intelligence w nadchodzącym systemie iOS 18 ma zrewolucjonizować sposób, w jaki użytkownicy iPhone’ów zarządzają swoją pocztą elektroniczną.
Jednakże, wczesne testy ujawniły poważne problemy z tą technologią, które mogą narazić użytkowników na niebezpieczeństwo.
Apple Intelligence, czyli sztuczna inteligencja firmy Apple, która ma zadebiutować oficjalnie w październiku, została już udostępniona beta testerom iOS 18.1. Jedną z głównych funkcji jest integracja sztucznej inteligencji z aplikacją Mail. Ta nowa technologia ma za zadanie analizować i kategoryzować wiadomości e-mail, pomagając użytkownikom szybko ocenić ich ważność.
Niestety, pierwsze doniesienia od testerów są alarmujące. Okazuje się, że system AI ma trudności z rozróżnieniem między normalnymi wiadomościami a próbami phishingu. Co gorsza, algorytm często przypisuje wysoki priorytet właśnie tym niebezpiecznym e-mailom. To sugeruje, że system skupia się wyłącznie na treści wiadomości, ignorując inne istotne czynniki, takie jak adres nadawcy czy struktura e-maila.
Problem ten nie jest całkowicie nowy dla Apple Mail – automatyczne wykrywanie spamu zawsze miało swoje ograniczenia. Jednak wprowadzenie Apple Intelligence znacząco pogarsza sytuację. Zamiast po prostu przepuszczać podejrzane e-maile, nowy system aktywnie promuje je jako ważne. To stwarza realne zagrożenie dla przeciętnego użytkownika, który może pospiesznie zareagować na fałszywe wezwanie do działania.
Chociaż Apple Intelligence jest wciąż w fazie testów beta, skala problemu wymaga natychmiastowej uwagi. Jeśli te usterki nie zostaną naprawione przed oficjalnym wydaniem iOS 18.1, konsekwencje dla milionów użytkowników mogą być bardzo poważne.
Warto zauważyć, że Apple Mail już teraz posiada pewne mechanizmy do identyfikacji zweryfikowanych adresów e-mail niektórych firm. Eksperci sugerują, że włączenie tych istniejących narzędzi do nowego systemu AI mogłoby znacznie poprawić jego skuteczność. Takie rozwiązanie pomogłoby systemowi lepiej ocenić, czy dane konto użytkownika rzeczywiście wymaga natychmiastowej uwagi, czy też jest to próba oszustwa.
Specjaliści ds. cyberbezpieczeństwa proponują również wdrożenie wielopoziomowego systemu weryfikacji. Mógłby on obejmować analizę behawioralną, uczenie maszynowe oparte na znanych wzorcach phishingu oraz regularnie aktualizowane bazy danych zagrożeń. Takie kompleksowe podejście mogłoby znacząco zmniejszyć liczbę fałszywych alarmów i poprawić ogólną skuteczność filtrowania.
Użytkownicy Apple wyrażają zaniepokojenie obecną sytuacją. Wielu z nich apeluje o większą przejrzystość w procesie rozwoju AI i zaangażowanie zewnętrznych ekspertów ds. bezpieczeństwa w prace nad udoskonaleniem systemu.
Jednym z możliwych rozwiązań, które Apple mogłoby rozważyć, jest wprowadzenie opcji ręcznego zatwierdzania działań AI przez użytkowników, przynajmniej w początkowej fazie. To pozwoliłoby na stopniowe budowanie zaufania do systemu i szybkie wykrywanie potencjalnych błędów.