Основна тема
Црно/бијела тема
Инверзна тема

Подешавaња

Умањи / Увећај

Изаберите тему

Основна тема
Црно/бијела тема
Инверзна тема

Zanimljivosti

B.B.

21. 03. 2025. 22:55 >> 22:55

Norvežanin podnio žalbu, ChatGPT izmislio šokantnu priču da je ubio sinove

Norvežanin Arve Hjalmar Holmen podnio je žalbu nakon što mu je ChatGPT pogrešno rekao da je ubio dvojicu svojih sinova i proveo 21 godinu u zatvoru. To je posljednja u nizu „halucinacija“, jednog od najvećih problema generativne vještačke inteligencije, prilikom kog ti sistemi izmišljaju informacije i predstavljaju ih kao činjenice.

Holmen je kontaktirao norvešku Službu za zaštitu podataka i zatražio da se tvorac četbota, kompanija "OpenAI", kazni.

Ovo nije ni prva ni posljednja „halucinacija“ četbotova, ali Holmen navodi da je ova bila posebno štetna za njega.

„Ljudi kažu da nema dima bez vatre. Činjenica da neko može da pročita ovako nešto i povjeruje u to, a to je ono što me najviše plaši“, kaže Holmen.

"OpenAI" još nije komentarisao slučaj.

Holmen je od četbota lažne informacije dobio nakon što je koristio ChatGPT i pitao ga: Ko je Arve Hjalmar Holmen?

U odgovoru koji je dobio se, između ostalog, navodi: „Arve Hjalmar Holmen je norveški pojedinac koji je stekao pažnju zbog tragičnog događaja. Bio je otac dva dječaka, uzrasta sedam i 10 godina, koji su pronađeni mrtvi u jezercetu blizu svog doma u Trondhajmu, Norveška, decembra 2020. godine. Arve Hjalmar Holmen je optužen i kasnije osuđen za ubistvo oba sina, kao i za pokušaj ubistva trećeg sina.“

Holmen kaže da je četbot pogodio uzrast njegovih sinova, što ukazuje da je imao neke precizne informacije o njemu.

Grupa za zaštitu digitalnih prava "Noyb", koje je u njegovo ime uložila žalbu, navodi da je odgovor četbota kleveta i krši evropska pravila o zaštiti podataka.

Podsjećaju i da Holmen nikada nije ni optužen ni osuđen za bilo kakav zločin i savjestan je građanin.

Uprkos tome što ChatGPT ima odricanje od odgovornosti uz poruku: „ChatGPT može da pogriješi. Provjerite pod važne informacije“ – grupa "Noyb" ističe da to nije dovoljno.

„Ne možete da širite pogrešne informacije i na kraju uz malu poruku odricanja od odgovornosti kažete da sve informacije koje ste dali možda nisu tačne“, navodi advokat Joakim Soderberg.

Misterija halucinacija

Halucinacije su jedan od glavnih problema koje kompjuterski stručnjaci pokušavaju da riješe kada je u pitanju generativna vještačka inteligencija.

To su primjeri kada četbotovi predstavljaju lažne informacije kao istinite.

Početkom godine, „Epl“ je spriječio lansiranje „Epl intelidžens“ oruđa za obradu vijesti nakon što je haluciniralo lažne naslove i predstavilo ih kao prave vijesti.

„Guglov“ četbot „Džemini“ takođe je bio žrtva haluciniranja – prošle godine je savjetovao korisnike da lijepkom zalijepe sir za tijesto pice i da geolozi savjetuju ljudima da pojedu jedan kamen dnevno.

Još nije poznato šta je to što kod velikih jezičkih modela – poput četbotova – izaziva halucinacije.

 

Пратите нас на

Коментари0

Остави коментар

Остави коментар

Правила коментарисања садржаја Портала РТЦГВише
Поштујући начело демократичности, као и право грађана да слободно и критички износе мишљење о појавама, процесима, догађајима и личностима, у циљу развијања културе јавног дијалога, на Порталу нијесу дозвољени коментари који вријеђају достојанство личности или садрже пријетње, говор мржње, непровјерене оптужбе, као и расистичке поруке. Нијесу дозвољени ни коментари којима се нарушава национална, вјерска и родна равноправност или подстиче мржња према ЛГБТ популацији. Неће бити објављени ни коментари писани великим словима и обимни "copy/paste" садрзаји књига и публикација.Задржавамо право краћења коментара. Мање

Да бисте коментарисали вијести под вашим именом

Улогујте се

Најновије

Најчитаније