The transition from "coder" to "architect" is the biggest productivity jump I’ve experienced in 40 years of electronics. Do you want to join me on my journey...
Pewnie od doświadczenia i złożoności projektu.
Ostatecznie nie jestem przekonany, czy ma to znaczenie.
Jeśli popełniłeś błąd jako człowiek, to właśnie się czegoś nauczyłeś i powinieneś wyciągnąć z tego wnioski na przyszłość.
Może w następnej iteracji będziesz bardziej ostrożny.
LLM nie nauczył się niczego. Będzie pamiętał o tej usterce do czasu aż informacja wypadnie mu z kontekstu.
W ubiegłym tygodniu poprosiłem AI o zaprojektowanie dość prostego układu elektronicznego. Zaproponował użycie scalaka, którego wyeliminowałem po 3 minutach researchu, bo nie spełniałby wymagań.
Te wymagania wynikały wprost z definicji zadania.
Ja rozumiem, że LLMom od czasu do czasu udaje się zaproponować coś sensownego.
Problem w tym, że po drodze popełniają one tyle idiotycznych błędów, że ich koszt musiałby być bliski zeru, żeby było to opłacalne.
Tak, ale doświadczenie ludzkie też słabo się skaluje. Ktoś by musiał zrobić szkolenie tylko o tym błędzie. I tak miałby wtedy skuteczność na poziomie rzutu monetą przy bardzo dobrym opracowaniu. Dodając kolejne zagadnienia zmniejszałby te szanse wielokrotnie.
Ja go nie proszę o nic w moich kompetencjach bo uznałem, że odpowiedzi są przeciętne. Pytam o rzeczy, w których moje kompetencje są poniżej przeciętnej. Wtedy jest spoko.
W dziedzinie elektroniki sprawdzałem analizę prostego schematu i była dobra. Nie wiem czy chciałbym, żeby opracowywało BOM.
Czasem kusi mnie by zrealizować tym wszystkie pomysły. Jednak samodzielna realizacja to rozwijanie charakteru. Może powinienem udać do tych restauracji coworkingowych w których kelner wciela się w twojego kierownika i wymaga dokończenia projektu.
Jakie jest prawdopodobieństwo u człowieka i od czego ono zależy?
Pewnie od doświadczenia i złożoności projektu.
Ostatecznie nie jestem przekonany, czy ma to znaczenie.
Jeśli popełniłeś błąd jako człowiek, to właśnie się czegoś nauczyłeś i powinieneś wyciągnąć z tego wnioski na przyszłość.
Może w następnej iteracji będziesz bardziej ostrożny.
LLM nie nauczył się niczego. Będzie pamiętał o tej usterce do czasu aż informacja wypadnie mu z kontekstu.
W ubiegłym tygodniu poprosiłem AI o zaprojektowanie dość prostego układu elektronicznego. Zaproponował użycie scalaka, którego wyeliminowałem po 3 minutach researchu, bo nie spełniałby wymagań.
Te wymagania wynikały wprost z definicji zadania.
Ja rozumiem, że LLMom od czasu do czasu udaje się zaproponować coś sensownego.
Problem w tym, że po drodze popełniają one tyle idiotycznych błędów, że ich koszt musiałby być bliski zeru, żeby było to opłacalne.
Tak, ale doświadczenie ludzkie też słabo się skaluje. Ktoś by musiał zrobić szkolenie tylko o tym błędzie. I tak miałby wtedy skuteczność na poziomie rzutu monetą przy bardzo dobrym opracowaniu. Dodając kolejne zagadnienia zmniejszałby te szanse wielokrotnie.
Ja go nie proszę o nic w moich kompetencjach bo uznałem, że odpowiedzi są przeciętne. Pytam o rzeczy, w których moje kompetencje są poniżej przeciętnej. Wtedy jest spoko.
W dziedzinie elektroniki sprawdzałem analizę prostego schematu i była dobra. Nie wiem czy chciałbym, żeby opracowywało BOM.
Czasem kusi mnie by zrealizować tym wszystkie pomysły. Jednak samodzielna realizacja to rozwijanie charakteru. Może powinienem udać do tych restauracji coworkingowych w których kelner wciela się w twojego kierownika i wymaga dokończenia projektu.