- cross-posted to:
- technology@lemmy.world
- cross-posted to:
- technology@lemmy.world
Jesteście już przygotowani do upgrade’u sprzętu, żeby działał nowy przycisk na klawiaturze? ;-)
Do czego oni to wykorzystają?
Może do jakichś małych, lokalnych LLMów. Ewentualnie do rozpoznawania twarzy, mowy.
Rozpoznawanie twarzy na LLM to umiało RPi. Nawet otwarte programy do organizacji fotek (f-spot) z okolicy 2007.
Kiedy Jabłko wprowadzało takie rozwiązanie w M/A to mieli przynajmniej jakieś ciekawe demka. Zawsze wrażenie robiło na mnie wyszukiwanie rzeczy w obrabianym filmie. No i Jabłko stara się przenieść wiele rzeczy do urządzenia użytkownika.
MS miał to i framework w swoich rozwiązaniach na ARM Qn. Ale nie widziałem nic ciekawego z tym. Ciekawi mnie co zaproponują by udowodnić, że wymaganie tylu RAM będzie uzasadnione. Szczególnie, że w ich interesie jest raczej chmura.
To wcale nie stoi w sprzeczności z chmurą, wręcz przeciwnie.
Software na laptopie może lokalnie rozpoznać mowę i przetworzyć ją na sekwencję wywołań API w chmurze. Czyli Microsoft pozbywa się najbardziej kosztownego etapu analizy zapytań - interpretacji polecenia w celu przekierowania do konkretnych usług.
Zalety dla Microsoftu: przerzucenie kosztów krzemu i energii na użytkownika przy zachowaniu dostępu do jego danych.
Zalety dla użytkowników: może jakis ograniczony tryb offline z akceptowalną wydajnością.Mimo wszystko wciąż pokładasz dużą nadzieję w tę firmę ;-)
Ja się skłaniam raczej ku temu, że zostawią to dla producentów aplikacji do rozwiązań, które potrzebują szybko wyniku na dużej ilości danych. Przy odrobinie szczęścia zaproszą kogoś z dużej firmy, kto pokaże jak z tego korzysta ich program.