To w sumie mogłoby być fajne narzędzie do inzynierii wstecznej starych programów, których nikt już nie rozwija.
Ciekawe na jakich architekturach trenują ten model i czy występują różnice w jakości tłumaczenia w zależności od użytego kompilatora.
Jest to w sumie jakaś forma statystycznego pattern-matchingu więc domyślam się, że wagi mogą być zoptymalizowane pod współczesne generatory kodu (VC, GCC, LLVM) i jakiś stary Watcom będzie gorzej dekompilowany.Jedno z haseł reklamowych było utrzymywanie starego oprogramowania. Ale dzisiaj stare, to równie dobrze coś co ma 2-10 lat.
To jakie kompilatory są obsługiwane zależy od tego jak przebiega szkolenie i jakie są do niego dane. Można przecież zrobić osobne modele dla każdego. Tylko trzeba mieć wystarczająco dużo danych, które różne kompilatory są w stanie przetworzyć. Wydaje mi się, że do tych z lat 80/90 jest mało. Z jednej strony one mniej optymalizowały. Z drugiej ludzie ręcznie tam optymalizowali.
O tym czego to forma można mówić po zrozumieniu działania tego.