• naur
    link
    fedilink
    Polski
    arrow-up
    1
    ·
    edit-2
    1 month ago

    Takie pytania dotyczące niszowych tematów są idealne żeby przekonać się, że AI jest obecnie wyjąßkowo złym źródłem wiedzy.

    Odpowiedź zawiera błędy merytoryczne już w pierwszym zdaniu:

    The RDPRU (Read Processor User state) instruction is a privileged instruction that allows reading processor-specific data

    Później dostałem cztery razy powtórzoną informację, że RDTSC odczytuje timestampy, a RDPRU rejestry MSR.
    Na koniec przykład użycia, gdzie jednym z punktów było napisanie modułu kernela i wywołanie rdmsrl.

    Czytając te bzdury miałem wrażenie, że ChatGPT robi mi jakiś gaslighting.

    Na obecnym etapie rozwoju to jest narzędzie do formatowania maili i (być może) streszczania długich dokumentów.

    • サぺルOPM
      link
      fedilink
      Polski
      arrow-up
      1
      ·
      1 month ago

      Wydaje mi się, że odpowiedzi na pytania z dziedzin humanistycznych mają sens. Tak samo jak pytania o rośliny jadalne i przepisy kulinarne. Pewnie nie pytałem o coś trudnego.

      Możliwe, że nie marnują wag na zbyt specjalistyczną wiedzę przy tej złożoności. W statystykach pewnie wychodzi czego ludzie potrzebują najbardziej.

      Normalną odpowiedź znalazłem w PDF z dokumentacji CPU.

      • naur
        link
        fedilink
        Polski
        arrow-up
        1
        ·
        1 month ago

        Tak, w PDFie znajdzie się prawie wszystko, ale to AI miało rozwiązać wszystkie problemy i zastąpić programistów. ;-)

        Perplexity.ai poradziło sobie lepiej od ChatGeppetto.

        • サぺルOPM
          link
          fedilink
          Polski
          arrow-up
          1
          ·
          1 month ago

          AI miało rozwiązać wszystkie problemy

          Trza sobie ciągle przypominać:

          • To inteligencja w dobieraniu wyrazów
          • Pismo to utrata 90% informacji
          • Samym pismem nie da się poznać świata i rozwiązywać jego problemów
          • naur
            link
            fedilink
            Polski
            arrow-up
            1
            ·
            edit-2
            1 month ago

            Ostatnio widziałem research paper opisujący metodę generowania prostych brył / modeli 3D przy użyciu LLM.
            Nie mam pojęcia, jaki to ma sens. Dla eksperta to pewnie strata czasu, bo szybciej zrobi rysunek i poustawia constrainty.
            Z kolei laik szybciej wyklikałby taki model przy użyciu prostego CSG w jakimś TinkerCADzie.

            Ciekawe co będzie następne. Może oparty na promptach widget do wybierania kolorów w programach do grafiki.

            • サぺルOPM
              link
              fedilink
              Polski
              arrow-up
              1
              ·
              1 month ago

              Zainspirowałeś mnie. Kazałem wygenerować figurę wg opisu jako skrypt dla OpenSCAD. Wyszło inaczej niż chciałem. Wszystkie figury pojawiły się w odpowiedniej rotacji. Wystarczyło kilka poprawek związanych z pozycją.

              Druga, trudniejsza próba z figurą zawierającą otwory wyszła gorzej. Skrypt był logicznie przekonywujący, ale nic się nie wyświetlało i nie wiem co było źle.

        • サぺルOPM
          link
          fedilink
          Polski
          arrow-up
          1
          ·
          1 month ago

          Ciekawi mnie jak ocenia się zajętość pamięci AI. Kiedyś mówiło się o przetrenowaniu. Ale to chyba inny problem.

          • naur
            link
            fedilink
            arrow-up
            1
            ·
            edit-2
            1 month ago

            Trudno powiedzieć, jak to jest z tym przetrenowaniem. Do niedawna za optymalną proporcję ilości danych treningowych do rozmiaru modelu uznawało się tzw. Chinchilla Point.
            Później LLama 3 została wytrenowana na znacznie większej liczbie tokenów i jakość modelu nadal wzrosła.