• naurOPM
    link
    fedilink
    arrow-up
    1
    ·
    10 months ago

    Jesteście już przygotowani do upgrade’u sprzętu, żeby działał nowy przycisk na klawiaturze? ;-)

      • naurOPM
        link
        fedilink
        arrow-up
        1
        ·
        10 months ago

        Może do jakichś małych, lokalnych LLMów. Ewentualnie do rozpoznawania twarzy, mowy.

        • サぺル
          link
          fedilink
          Polski
          arrow-up
          1
          ·
          10 months ago

          Rozpoznawanie twarzy na LLM to umiało RPi. Nawet otwarte programy do organizacji fotek (f-spot) z okolicy 2007.

          Kiedy Jabłko wprowadzało takie rozwiązanie w M/A to mieli przynajmniej jakieś ciekawe demka. Zawsze wrażenie robiło na mnie wyszukiwanie rzeczy w obrabianym filmie. No i Jabłko stara się przenieść wiele rzeczy do urządzenia użytkownika.

          MS miał to i framework w swoich rozwiązaniach na ARM Qn. Ale nie widziałem nic ciekawego z tym. Ciekawi mnie co zaproponują by udowodnić, że wymaganie tylu RAM będzie uzasadnione. Szczególnie, że w ich interesie jest raczej chmura.

          • naurOPM
            link
            fedilink
            arrow-up
            1
            ·
            edit-2
            10 months ago

            To wcale nie stoi w sprzeczności z chmurą, wręcz przeciwnie.

            Software na laptopie może lokalnie rozpoznać mowę i przetworzyć ją na sekwencję wywołań API w chmurze. Czyli Microsoft pozbywa się najbardziej kosztownego etapu analizy zapytań - interpretacji polecenia w celu przekierowania do konkretnych usług.

            Zalety dla Microsoftu: przerzucenie kosztów krzemu i energii na użytkownika przy zachowaniu dostępu do jego danych.
            Zalety dla użytkowników: może jakis ograniczony tryb offline z akceptowalną wydajnością.

            • サぺル
              link
              fedilink
              Polski
              arrow-up
              1
              ·
              edit-2
              10 months ago

              Mimo wszystko wciąż pokładasz dużą nadzieję w tę firmę ;-)

              Ja się skłaniam raczej ku temu, że zostawią to dla producentów aplikacji do rozwiązań, które potrzebują szybko wyniku na dużej ilości danych. Przy odrobinie szczęścia zaproszą kogoś z dużej firmy, kto pokaże jak z tego korzysta ich program.