• naurOPM
    link
    fedilink
    arrow-up
    1
    ·
    10 months ago

    Może do jakichś małych, lokalnych LLMów. Ewentualnie do rozpoznawania twarzy, mowy.

    • サぺル
      link
      fedilink
      Polski
      arrow-up
      1
      ·
      10 months ago

      Rozpoznawanie twarzy na LLM to umiało RPi. Nawet otwarte programy do organizacji fotek (f-spot) z okolicy 2007.

      Kiedy Jabłko wprowadzało takie rozwiązanie w M/A to mieli przynajmniej jakieś ciekawe demka. Zawsze wrażenie robiło na mnie wyszukiwanie rzeczy w obrabianym filmie. No i Jabłko stara się przenieść wiele rzeczy do urządzenia użytkownika.

      MS miał to i framework w swoich rozwiązaniach na ARM Qn. Ale nie widziałem nic ciekawego z tym. Ciekawi mnie co zaproponują by udowodnić, że wymaganie tylu RAM będzie uzasadnione. Szczególnie, że w ich interesie jest raczej chmura.

      • naurOPM
        link
        fedilink
        arrow-up
        1
        ·
        edit-2
        10 months ago

        To wcale nie stoi w sprzeczności z chmurą, wręcz przeciwnie.

        Software na laptopie może lokalnie rozpoznać mowę i przetworzyć ją na sekwencję wywołań API w chmurze. Czyli Microsoft pozbywa się najbardziej kosztownego etapu analizy zapytań - interpretacji polecenia w celu przekierowania do konkretnych usług.

        Zalety dla Microsoftu: przerzucenie kosztów krzemu i energii na użytkownika przy zachowaniu dostępu do jego danych.
        Zalety dla użytkowników: może jakis ograniczony tryb offline z akceptowalną wydajnością.

        • サぺル
          link
          fedilink
          Polski
          arrow-up
          1
          ·
          edit-2
          10 months ago

          Mimo wszystko wciąż pokładasz dużą nadzieję w tę firmę ;-)

          Ja się skłaniam raczej ku temu, że zostawią to dla producentów aplikacji do rozwiązań, które potrzebują szybko wyniku na dużej ilości danych. Przy odrobinie szczęścia zaproszą kogoś z dużej firmy, kto pokaże jak z tego korzysta ich program.