Ludzie widzą w tych wszystkich AI jakiegoś ducha ukrytego w maszynie, podczas gdy to tylko kolejne maszyna, jeśli dobrze rozumiem większość tego to kolejne LLMy, czyli large language models, wielka baza danych która uczy się na istniejących już zwrotach i wypowiedziach i próbuje dopasować wyniki szukając podobnych zapytań.
One nie mają ani świadomości, ani nie robią specjalnie tego co robią.
Tego artykuły to trochę jakby pokazywać przykład gościa który sobie podciął żyły i obwinianie noża, że na to pozwolił. Tylko w dużo większej skali.
AI staje się częścią naszego świata, nasza edukacja i świadomość nie nadążają (tak jak za większością rzeczy które nas dotykają w XXI wieku, typu neoliberalizm, MLMy, różne gówna oparte na shock value etc). Jak sobie z tym poradzi społeczeństwo, nie wiem.
Auto jest w stanie dużo łatwiej zabić niż AI. Nawet głupia awaria systemu w elektrowni atomowej może spowodować śmierć tysięcy ludzi.
Maszyny nie mają agendy, nie czują, nie myślą tak jak my, to narzędzia. Elektrownia atomowa wybuchając nie robi tego specjalnie, auto które wypada z drogi i zabija pasażerów nie robi tego specjalnie, AI czasem bredzące o śmierci nie robi tego specjalnie. Czy model samochodu z wadą fabryczną która powodowała nagłe przyśmieszenie i kończyło się to śmiercią, to też wina maszyny? ,https://www.motortrend.com/news/toyota-recall-crisis/
Dlatego w iżynierii prawie zawsze stosuje się wszelkiej maści risk assesmenty, dlatego próbuje się wyeliminować wszelkie potencjalne zagrożenia, w przypadku AI musi być podobnie.