• サぺル
    link
    fedilink
    Polski
    arrow-up
    1
    ·
    10 months ago

    Rozpoznawanie twarzy na LLM to umiało RPi. Nawet otwarte programy do organizacji fotek (f-spot) z okolicy 2007.

    Kiedy Jabłko wprowadzało takie rozwiązanie w M/A to mieli przynajmniej jakieś ciekawe demka. Zawsze wrażenie robiło na mnie wyszukiwanie rzeczy w obrabianym filmie. No i Jabłko stara się przenieść wiele rzeczy do urządzenia użytkownika.

    MS miał to i framework w swoich rozwiązaniach na ARM Qn. Ale nie widziałem nic ciekawego z tym. Ciekawi mnie co zaproponują by udowodnić, że wymaganie tylu RAM będzie uzasadnione. Szczególnie, że w ich interesie jest raczej chmura.

    • naurOPM
      link
      fedilink
      arrow-up
      1
      ·
      edit-2
      10 months ago

      To wcale nie stoi w sprzeczności z chmurą, wręcz przeciwnie.

      Software na laptopie może lokalnie rozpoznać mowę i przetworzyć ją na sekwencję wywołań API w chmurze. Czyli Microsoft pozbywa się najbardziej kosztownego etapu analizy zapytań - interpretacji polecenia w celu przekierowania do konkretnych usług.

      Zalety dla Microsoftu: przerzucenie kosztów krzemu i energii na użytkownika przy zachowaniu dostępu do jego danych.
      Zalety dla użytkowników: może jakis ograniczony tryb offline z akceptowalną wydajnością.

      • サぺル
        link
        fedilink
        Polski
        arrow-up
        1
        ·
        edit-2
        10 months ago

        Mimo wszystko wciąż pokładasz dużą nadzieję w tę firmę ;-)

        Ja się skłaniam raczej ku temu, że zostawią to dla producentów aplikacji do rozwiązań, które potrzebują szybko wyniku na dużej ilości danych. Przy odrobinie szczęścia zaproszą kogoś z dużej firmy, kto pokaże jak z tego korzysta ich program.