Основна тема
Црно/бијела тема
Инверзна тема

Подешавaња

Умањи / Увећај

Изаберите тему

Основна тема
Црно/бијела тема
Инверзна тема

Nauka i tehnologija

A.M./RTS

09. 08. 2024. 21:10 >> 21:08

OpenAI

Emocionalna veza, četbot i vještačka inteligencija – dosta razloga za brigu

OpenAI je objavio da je zabrinut da bi ljudi mogli početi previše da se oslanjaju na ChatGPT za druženje, što bi potencijalno moglo dovesti do „zavisnosti“, zbog njegovog novog glasa koji djeluje isuviše "ljudski".

U novom izvještaju OpenAI-a o bezbjednosnom pregledu alata, koji je počeo da se primjenjuje za plaćene korisnike prošle sedmice, i velikog jezičkog VI modela na kome rade, pomenut je i problem emocionalnog vezivanja.

Napredni glasovni režim ChatGPT-a zvuči nevjerovatno realistično. Reaguje u realnom vremenu, može da se prilagodi da bude prekinut, pravi zvukove koje ljudi prave tokom razgovora, kao što su smijeh ili „hmm“. Takođe može da procijeni emocionalno stanje govornika na osnovu njegovog tona glasa.

U roku od nekoliko minuta nakon što je OpenAI najavio novu funkciju na događaju ranije ove godine, upoređen je sa VI digitalnim asistentom u filmu Ona iz 2013. u kojeg se protagonista zaljubljuje, i ostaje slomljenog srca.

Sada, OpenAI je očigledno zabrinut da je nešto što je izmišljena priča previše blizu da postane stvarnost, nakon što iz kompanije kažu da je kod korisnika primijećeno kako razgovaraju sa ChatGPT-ovim glasovnim režimom na jeziku koji „izražava zajedničke veze“.

Na kraju, „korisnici bi mogli da formiraju društvene odnose sa vještačkom inteligencijom, smanjujući njihovu potrebu za ljudskom interakcijom – što može biti od koristi usamljenim pojedincima, ali može uticati na zdrave odnose“, navodi se u izvještaju.

Dodaje se da bi slušanje informacija od bota koji zvuči kao čovjek moglo navesti korisnike da vjeruju alatu više nego što bi trebalo, s obzirom na sklonost VI da pogriješi.

Izvještaj naglašava veliki rizik u vezi sa vještačkom inteligencijom: tehnološke kompanije se utrkuju da brzo uvedu alate vještačke inteligencije za koje kažu da bi mogli da promijene način na koji živimo, radimo, družimo se i pronalazimo informacije. Ali, oni to rade prije nego što iko zaista shvati koje su implikacije moguće. Kao i kod mnogih tehnoloških napredaka, kompanije često imaju jednu ideju o tome kako njihovi alati mogu i treba da se koriste, ali korisnici dolaze do čitavog niza drugih potencijalnih primjena, često sa neželjenim posljedicama.

Neki ljudi već formiraju ono što opisuju kao romantične veze sa AI četbotovima, što izaziva zabrinutost stručnjaka za socijalne odnose.

„Velika je odgovornost na kompanijama da zaista vode posao na etički i odgovoran način, a sve je trenutno u fazi eksperimentisanja. Zabrinuta sam za ljude koji stvaraju zaista duboke veze sa tehnologijom koja možda neće postojati na duži rok i koja se stalno razvija i mijenja", rekla je Lajzel Šarabi, profesorka Univerziteta u Arizoni koja proučava tehnologiju i ljudsku komunikaciju.

OpenAI navodi da interakcije ljudskih korisnika sa glasovnim režimom ChatGPT-a takođe mogu vremenom uticati na ono što se smatra normalnim u društvenim interakcijama.

Za sada, iz OpenAI-a navode da su posvećeni izgradnji AI na „bezbjedan način“ i da planiraju da nastave da proučavaju potencijal „emocionalnog oslanjanja“ korisnika na njegove alate.

Пратите нас на

Коментари0

Остави коментар

Остави коментар

Правила коментарисања садржаја Портала РТЦГВише
Поштујући начело демократичности, као и право грађана да слободно и критички износе мишљење о појавама, процесима, догађајима и личностима, у циљу развијања културе јавног дијалога, на Порталу нијесу дозвољени коментари који вријеђају достојанство личности или садрже пријетње, говор мржње, непровјерене оптужбе, као и расистичке поруке. Нијесу дозвољени ни коментари којима се нарушава национална, вјерска и родна равноправност или подстиче мржња према ЛГБТ популацији. Неће бити објављени ни коментари писани великим словима и обимни "copy/paste" садрзаји књига и публикација.Задржавамо право краћења коментара. Мање

Да бисте коментарисали вијести под вашим именом

Улогујте се

Најновије

Најчитаније