siri

Model sztucznej inteligencji Apple jest rzekomo potężniejszy od ChatGPT-4

Apple w swoich najnowszych działaniach badawczych z obszaru sztucznej inteligencji (AI) demonstruje postępy, które mogą znacząco zmienić sposób, w jaki postrzegamy interakcje z technologią.

Firma ta, znana z innowacji i wprowadzania przełomowych technologii, teraz koncentruje się na rozwoju modelu AI, który według doniesień przewyższa możliwości ChatGPT-4, obecnie jednego z najbardziej zaawansowanych dostępnych systemów opartych na sztucznej inteligencji.

Podczas gdy detale tych innowacji mają zostać oficjalnie przedstawione podczas Światowej Konferencji Deweloperów (WWDC) organizowanej przez Apple w czerwcu, firma już teraz ujawnia fragmenty swoich badań nad AI. Wśród nich znajduje się technika znana jako ReALM (Reference Resolution as Language Modeling), która ma na celu usprawnienie komunikacji z asystentami głosowymi, takimi jak Siri, poprzez lepsze rozumienie kontekstu wypowiedzi użytkownika.

Problem, z którym boryka się wiele systemów AI, dotyczy interpretacji niejednoznacznych poleceń, takich jak “to” czy “tamto”. Apple, wykorzystując technologię LLM (Large Language Models), opracowało metodę, która ma uprościć ten proces. Zamiast polegać na skomplikowanych modelach i referencjach zewnętrznych, takich jak obrazy, firma zdecydowała się przekształcić wszelkie dane wejściowe na tekst. To uproszczenie pozwoliło modelom ReALM osiągnąć podobną, a w niektórych przypadkach nawet lepszą wydajność niż ChatGPT-4, przy znacznie mniejszej ilości parametrów. To oznacza, że modele te są bardziej wydajne i łatwiejsze w implementacji na urządzeniach mobilnych.

Model sztucznej inteligencji Apple jest rzekomo potężniejszy od ChatGPT-4 ciekawostki   Apple w swoich najnowszych działaniach badawczych z obszaru sztucznej inteligencji (AI) demonstruje postępy, które mogą znacząco zmienić sposób, w jaki postrzegamy interakcje z technologią. ai apple

Jednym z kluczowych aspektów, który przyczynia się do przewagi ReALM nad ChatGPT-4, jest uniknięcie potrzeby bezpośredniej analizy obrazów do interpretacji kontekstu. Model ReALM przekształca obrazy na tekst, co pozwala na obejście skomplikowanego i mniej efektywnego procesu rozpoznawania obrazu, charakterystycznego dla wcześniejszych systemów AI.

Apple planuje przedstawić swoją kompleksową strategię dotyczącą AI podczas WWDC 2024. Firma ma zamiar skupić się na mniejszych modelach AI, które będą integrowane bezpośrednio z urządzeniami końcowymi. Ma to na celu nie tylko poprawę wydajności i szybkości działania, ale także zwiększenie prywatności i bezpieczeństwa danych użytkowników. Ponadto, Apple rozważa udzielenie licencji na swoje modele LLM innym firmom, co pozwoli na ich wykorzystanie w chmurze do bardziej zaawansowanych zadań przetwarzania danych, jednocześnie zachowując kontrolę nad kwestiami etycznymi i prywatnością.

Interesującym zastosowaniem technologii ReALM jest możliwość bezpośredniego wykonywania poleceń bez potrzeby dodatkowych wyjaśnień. Na przykład, mówiąc “zadzwoń do firmy” podczas przeglądania jej strony internetowej, użytkownik może spodziewać się, że asystent AI zinterpretuje ten rozkaz w kontekście dostępnych informacji, identyfikując i wybierając numer telefonu firmy do wykonania połączenia.

Podejście Apple do rozwoju AI i jego zastosowań w codziennym użytkowaniu urządzeń mobilnych i komputerowych może zrewolucjonizować sposób, w jaki interakcje z maszynami są realizowane. Przez eliminację barier komunikacyjnych i ułatwienie dostępu do informacji oraz usług, firma z Cupertino ponownie udowadnia, że stoi na czele technologicznej innowacji.

Co więcej, strategia ta podkreśla również wagę, jaką Apple przywiązuje do prywatności i bezpieczeństwa danych użytkowników, co jest kluczowe w dzisiejszym cyfrowym świecie.

Źródło:

Średnia ocena 4.6 / 5. Gł: 131

Brak głosów! Bądź pierwszy i oceń ten post.

Udostępnij
Facebook
Twitter
E-Mail
Dołącz do nas
Czytaj również
Polecamy
Scroll to Top