Rozpoznawanie twarzy na LLM to umiało RPi. Nawet otwarte programy do organizacji fotek (f-spot) z okolicy 2007.
Kiedy Jabłko wprowadzało takie rozwiązanie w M/A to mieli przynajmniej jakieś ciekawe demka. Zawsze wrażenie robiło na mnie wyszukiwanie rzeczy w obrabianym filmie. No i Jabłko stara się przenieść wiele rzeczy do urządzenia użytkownika.
MS miał to i framework w swoich rozwiązaniach na ARM Qn. Ale nie widziałem nic ciekawego z tym. Ciekawi mnie co zaproponują by udowodnić, że wymaganie tylu RAM będzie uzasadnione. Szczególnie, że w ich interesie jest raczej chmura.
To wcale nie stoi w sprzeczności z chmurą, wręcz przeciwnie.
Software na laptopie może lokalnie rozpoznać mowę i przetworzyć ją na sekwencję wywołań API w chmurze. Czyli Microsoft pozbywa się najbardziej kosztownego etapu analizy zapytań - interpretacji polecenia w celu przekierowania do konkretnych usług.
Zalety dla Microsoftu: przerzucenie kosztów krzemu i energii na użytkownika przy zachowaniu dostępu do jego danych.
Zalety dla użytkowników: może jakis ograniczony tryb offline z akceptowalną wydajnością.
Mimo wszystko wciąż pokładasz dużą nadzieję w tę firmę ;-)
Ja się skłaniam raczej ku temu, że zostawią to dla producentów aplikacji do rozwiązań, które potrzebują szybko wyniku na dużej ilości danych. Przy odrobinie szczęścia zaproszą kogoś z dużej firmy, kto pokaże jak z tego korzysta ich program.
Do czego oni to wykorzystają?
Może do jakichś małych, lokalnych LLMów. Ewentualnie do rozpoznawania twarzy, mowy.
Rozpoznawanie twarzy na LLM to umiało RPi. Nawet otwarte programy do organizacji fotek (f-spot) z okolicy 2007.
Kiedy Jabłko wprowadzało takie rozwiązanie w M/A to mieli przynajmniej jakieś ciekawe demka. Zawsze wrażenie robiło na mnie wyszukiwanie rzeczy w obrabianym filmie. No i Jabłko stara się przenieść wiele rzeczy do urządzenia użytkownika.
MS miał to i framework w swoich rozwiązaniach na ARM Qn. Ale nie widziałem nic ciekawego z tym. Ciekawi mnie co zaproponują by udowodnić, że wymaganie tylu RAM będzie uzasadnione. Szczególnie, że w ich interesie jest raczej chmura.
To wcale nie stoi w sprzeczności z chmurą, wręcz przeciwnie.
Software na laptopie może lokalnie rozpoznać mowę i przetworzyć ją na sekwencję wywołań API w chmurze. Czyli Microsoft pozbywa się najbardziej kosztownego etapu analizy zapytań - interpretacji polecenia w celu przekierowania do konkretnych usług.
Zalety dla Microsoftu: przerzucenie kosztów krzemu i energii na użytkownika przy zachowaniu dostępu do jego danych.
Zalety dla użytkowników: może jakis ograniczony tryb offline z akceptowalną wydajnością.
Mimo wszystko wciąż pokładasz dużą nadzieję w tę firmę ;-)
Ja się skłaniam raczej ku temu, że zostawią to dla producentów aplikacji do rozwiązań, które potrzebują szybko wyniku na dużej ilości danych. Przy odrobinie szczęścia zaproszą kogoś z dużej firmy, kto pokaże jak z tego korzysta ich program.