• naurM
    link
    fedilink
    Polski
    arrow-up
    1
    ·
    1 month ago

    Pewnie od doświadczenia i złożoności projektu.
    Ostatecznie nie jestem przekonany, czy ma to znaczenie.

    Jeśli popełniłeś błąd jako człowiek, to właśnie się czegoś nauczyłeś i powinieneś wyciągnąć z tego wnioski na przyszłość.
    Może w następnej iteracji będziesz bardziej ostrożny.

    LLM nie nauczył się niczego. Będzie pamiętał o tej usterce do czasu aż informacja wypadnie mu z kontekstu.

    W ubiegłym tygodniu poprosiłem AI o zaprojektowanie dość prostego układu elektronicznego. Zaproponował użycie scalaka, którego wyeliminowałem po 3 minutach researchu, bo nie spełniałby wymagań.
    Te wymagania wynikały wprost z definicji zadania.

    Ja rozumiem, że LLMom od czasu do czasu udaje się zaproponować coś sensownego.
    Problem w tym, że po drodze popełniają one tyle idiotycznych błędów, że ich koszt musiałby być bliski zeru, żeby było to opłacalne.

    • サぺルOP
      link
      fedilink
      Polski
      arrow-up
      1
      ·
      edit-2
      30 days ago

      Tak, ale doświadczenie ludzkie też słabo się skaluje. Ktoś by musiał zrobić szkolenie tylko o tym błędzie. I tak miałby wtedy skuteczność na poziomie rzutu monetą przy bardzo dobrym opracowaniu. Dodając kolejne zagadnienia zmniejszałby te szanse wielokrotnie.

      Ja go nie proszę o nic w moich kompetencjach bo uznałem, że odpowiedzi są przeciętne. Pytam o rzeczy, w których moje kompetencje są poniżej przeciętnej. Wtedy jest spoko.

      W dziedzinie elektroniki sprawdzałem analizę prostego schematu i była dobra. Nie wiem czy chciałbym, żeby opracowywało BOM.

      Czasem kusi mnie by zrealizować tym wszystkie pomysły. Jednak samodzielna realizacja to rozwijanie charakteru. Może powinienem udać do tych restauracji coworkingowych w których kelner wciela się w twojego kierownika i wymaga dokończenia projektu.