• サぺルOPM
    link
    fedilink
    Polski
    arrow-up
    1
    ·
    3 months ago

    Ciekawi mnie jak ocenia się zajętość pamięci AI. Kiedyś mówiło się o przetrenowaniu. Ale to chyba inny problem.

    • naur
      link
      fedilink
      arrow-up
      1
      ·
      edit-2
      3 months ago

      Trudno powiedzieć, jak to jest z tym przetrenowaniem. Do niedawna za optymalną proporcję ilości danych treningowych do rozmiaru modelu uznawało się tzw. Chinchilla Point.
      Później LLama 3 została wytrenowana na znacznie większej liczbie tokenów i jakość modelu nadal wzrosła.