Polska, Stany Zjednoczone, Wielka Brytania oraz piętnaście innych państw z całego świata podjęły inicjatywę, mającą na celu rozwój sztucznej inteligencji (AI) z naciskiem na zapewnienie bezpieczeństwa społecznego.
W tym kontekście, podpisanie międzynarodowego porozumienia stanowi przełom w zakresie odpowiedzialnego i bezpiecznego wykorzystywania AI.
Zgodnie z 20-stronicowym dokumentem, który został zaprezentowany podczas niedawnej konferencji, kraje uczestniczące zobowiązały się do promowania rozwoju sztucznej inteligencji w sposób, który chroni indywidualnych użytkowników oraz społeczeństwo przed potencjalnymi nadużyciami. Współpraca ta podkreśla rosnącą świadomość globalną na temat znaczenia etyki i bezpieczeństwa w kontekście szybko rozwijających się technologii.
Porozumienie to, będące inicjatywą międzynarodową, zostało pozytywnie odebrane przez Jen Easterly, dyrektor amerykańskiej Agencji ds. Bezpieczeństwa Cyberbezpieczeństwa i Infrastruktury (CISA). Easterly podkreśliła, że rozwój sztucznej inteligencji powinien być przede wszystkim skoncentrowany na aspekcie bezpieczeństwa. Podczas swojej wypowiedzi dla agencji Reuters, zaznaczyła, że nowe technologie powinny być projektowane z myślą o bezpieczeństwie, a nie tylko o funkcjonalnościach czy konkurencyjności rynkowej.
Wśród krajów, które przystąpiły do tego programu, znajdują się między innymi Niemcy, Włochy, Czechy, Estonia, Polska, Australia, Chile, Izrael, Nigeria i Singapur. Obecność tych państw świadczy o globalnym zasięgu i znaczeniu inicjatywy. Europa, z Niemcami, Francją i Włochami na czele, od dawna stara się wypracować szczegółowe regulacje dotyczące AI, co obejmuje prawne wymogi przeprowadzania regularnych testów bezpieczeństwa w celu identyfikacji potencjalnych zagrożeń.
Jednakże, postęp w Europie w zakresie ustanowienia tych przepisów jest wolny. W związku z tym, porozumienie to może być widziane jako krok naprzód w kierunku ujednolicenia podejścia do regulacji AI. Ta międzynarodowa inicjatywa potencjalnie może przyspieszyć proces tworzenia spójnych ram prawnych na szczeblu globalnym.
Z drugiej strony, w Stanach Zjednoczonych, pomimo nacisków ze strony Białego Domu, Kongres jeszcze nie poczynił znaczących kroków w kierunku opracowania regulacji dotyczących sztucznej inteligencji. Mimo to, prezydent Biden podjął działania w postaci zarządzenia wykonawczego, które nakłada na firmy zajmujące się AI obowiązek przeprowadzania testów bezpieczeństwa, mających na celu ochronę przed potencjalnymi cyberatakami.
Przykładem firmy, która aktywnie wdraża AI w swoich produktach, jest Apple. Korporacja ta od lat integruje funkcje sztucznej inteligencji, szczególnie w zakresie fotografii w iPhone’ach. Firma stworzyła również własnego chatbota o nazwie Apple GPT, który jednak na razie jest wykorzystywany wyłącznie wewnętrznie. Podejście Apple do nowych technologii zwykle charakteryzuje się ostrożnością, dlatego może upłynąć jeszcze sporo czasu, zanim firma zdecyduje się na udostępnienie tak zaawansowanych narzędzi sztucznej inteligencji swoim klientom.
To międzynarodowe porozumienie jest świadectwem rosnącej globalnej koncentracji na bezpieczeństwie i etyce w kontekście rozwoju sztucznej inteligencji. Przez wspólną pracę i zaangażowanie, kraje te dążą do stworzenia przyszłości, w której technologie AI będą rozwijane w sposób odpowiedzialny i bezpieczny dla wszystkich.