TIL: rdpru
Nawet znając nazwę rozkazu ciężko jest znaleźć sensowne informacje na jego temat w sieci.
Bez zaglądania w PDFy od AMD najlepsze na co trafiłem to rozszerzenie do rustowego criteriona.Męczyłem AI w sprawie tego rozkazu. Wyniki były ciekawe, ale nie zgadzały się z tym co było w źródle do którego dałeś link. Twierdzili, że przekazujesz kod rejestru w RAX i dostajesz wynik w RAX.
Czemu wstawki ASM w Rust wyglądają gorzej niż w gcc?
Czekam, aż w kolejnym Zen wprowadzą możliwość wykonania fragmentu kodu przestrzeni użytkownika w przestrzeni jądra jako nowy sposób na komunikację z systemem.
Takie pytania dotyczące niszowych tematów są idealne żeby przekonać się, że AI jest obecnie wyjąßkowo złym źródłem wiedzy.
Odpowiedź zawiera błędy merytoryczne już w pierwszym zdaniu:
The RDPRU (Read Processor User state) instruction is a privileged instruction that allows reading processor-specific data
Później dostałem cztery razy powtórzoną informację, że RDTSC odczytuje timestampy, a RDPRU rejestry MSR.
Na koniec przykład użycia, gdzie jednym z punktów było napisanie modułu kernela i wywołanie rdmsrl.Czytając te bzdury miałem wrażenie, że ChatGPT robi mi jakiś gaslighting.
Na obecnym etapie rozwoju to jest narzędzie do formatowania maili i (być może) streszczania długich dokumentów.
Wydaje mi się, że odpowiedzi na pytania z dziedzin humanistycznych mają sens. Tak samo jak pytania o rośliny jadalne i przepisy kulinarne. Pewnie nie pytałem o coś trudnego.
Możliwe, że nie marnują wag na zbyt specjalistyczną wiedzę przy tej złożoności. W statystykach pewnie wychodzi czego ludzie potrzebują najbardziej.
Normalną odpowiedź znalazłem w PDF z dokumentacji CPU.
Tak, w PDFie znajdzie się prawie wszystko, ale to AI miało rozwiązać wszystkie problemy i zastąpić programistów. ;-)
Perplexity.ai poradziło sobie lepiej od ChatGeppetto.
AI miało rozwiązać wszystkie problemy
Trza sobie ciągle przypominać:
- To inteligencja w dobieraniu wyrazów
- Pismo to utrata 90% informacji
- Samym pismem nie da się poznać świata i rozwiązywać jego problemów
Ostatnio widziałem research paper opisujący metodę generowania prostych brył / modeli 3D przy użyciu LLM.
Nie mam pojęcia, jaki to ma sens. Dla eksperta to pewnie strata czasu, bo szybciej zrobi rysunek i poustawia constrainty.
Z kolei laik szybciej wyklikałby taki model przy użyciu prostego CSG w jakimś TinkerCADzie.Ciekawe co będzie następne. Może oparty na promptach widget do wybierania kolorów w programach do grafiki.
Zainspirowałeś mnie. Kazałem wygenerować figurę wg opisu jako skrypt dla OpenSCAD. Wyszło inaczej niż chciałem. Wszystkie figury pojawiły się w odpowiedniej rotacji. Wystarczyło kilka poprawek związanych z pozycją.
Druga, trudniejsza próba z figurą zawierającą otwory wyszła gorzej. Skrypt był logicznie przekonywujący, ale nic się nie wyświetlało i nie wiem co było źle.
Ciekawi mnie jak ocenia się zajętość pamięci AI. Kiedyś mówiło się o przetrenowaniu. Ale to chyba inny problem.
Trudno powiedzieć, jak to jest z tym przetrenowaniem. Do niedawna za optymalną proporcję ilości danych treningowych do rozmiaru modelu uznawało się tzw. Chinchilla Point.
Później LLama 3 została wytrenowana na znacznie większej liczbie tokenów i jakość modelu nadal wzrosła.