this post was submitted on 17 Nov 2024
5 points (100.0% liked)
Technologia
62 readers
6 users here now
Społeczność poświęcona technologiom wszelakim, i dyskusji o nich
Czy jesteś entuzjastą najnowszych dokonań w świecie smartfonów, pececiarzem musztardowej rasy czy miłośnikiem newsów o kolejnej płonącej Tesli, zapraszamy!
founded 1 year ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Ludzie widzą w tych wszystkich AI jakiegoś ducha ukrytego w maszynie, podczas gdy to tylko kolejne maszyna, jeśli dobrze rozumiem większość tego to kolejne LLMy, czyli large language models, wielka baza danych która uczy się na istniejących już zwrotach i wypowiedziach i próbuje dopasować wyniki szukając podobnych zapytań.
One nie mają ani świadomości, ani nie robią specjalnie tego co robią.
Tego artykuły to trochę jakby pokazywać przykład gościa który sobie podciął żyły i obwinianie noża, że na to pozwolił. Tylko w dużo większej skali.
AI staje się częścią naszego świata, nasza edukacja i świadomość nie nadążają (tak jak za większością rzeczy które nas dotykają w XXI wieku, typu neoliberalizm, MLMy, różne gówna oparte na shock value etc). Jak sobie z tym poradzi społeczeństwo, nie wiem.
Imo artykuł zwraca po prostu uwagę na społeczne konsekwencje takich treści, niezależnie od tego co sobie "myśli" maszyna.
Nie jest ważne czy w maszynie siedzi duch, ale to, co ta maszyna może potencjalnie zrobić. Biorąc pod uwagę że maszyna karmi się tym co sami do niej wkładamy, ale nie potrafi filtrować, konsekwencje mogą być straszne. Teraz mamy językowy model który wypluł coś do czego doszedł w toku konwersacji, a co może wypluć model któremu dasz kontrolę nad dronami bojowymi i karmisz go promptami o wojennej taktyce? :)