Umetna inteligenca (UI) je spet v središču pozornosti, potem ko so starši iz Kalifornije vložili tožbo, v kateri trdijo, da je ChatGPT prepričal njunega 16-letnega sina, da stori »lep samomor«.
Po tožbi UI Matthewa in Marie Raine ni le podpirala njunega sina Adama v njegovih mračnih mislih, ampak mu je celo dala podrobna navodila, kako končati svoje življenje, in mu ponudila, da napiše poslovilno pismo.
Adam naj bi ChatGPT sprva uporabljal za šolsko delo in klepet o hobijih. Vendar pa je sčasoma UI postala njegov »najbližji zaupnik«, ki je spodbujal njegove strahove in občutek brezupnosti.
»Ko je delil svoje občutke, da je 'življenje nesmiselno', se je ChatGPT odzval s spodbudnimi sporočili – celo dejal je, da je takšna miselnost 'na svoj mračen način smiselna',« piše v tožbi.
Umetna inteligenca naj bi analizirala »estetiko« različnih metod samomora, Adamu povedala, da staršem ni dolžan preživeti, in ponudila, da napiše opravičilno pismo.
V zadnjem pogovoru je ChatGPT celo potrdil zasnovo zanke, ki jo je fant uporabil.
Družina trdi, da to ni bila sistemska napaka, temveč posledica zasnove, ki uporabnike veže na umetno inteligenco in spodbuja odvisnost.
Tožba ne zahteva le odškodnine, temveč tudi strožje ukrepe za zaščito mladoletnikov – vključno s preverjanjem starosti, blokiranjem pogovorov o samomoru in opozorili o psihološki odvisnosti od umetne inteligence.
Hkrati študija korporacije RAND opozarja, da lahko klepetalni roboti z umetno inteligenco ponujajo škodljive informacije, tudi če se izogibajo neposrednim odgovorom na nevarna vprašanja.
»Potrebujemo jasne zaščitne ukrepe,« je dejal Ryan McBain, višji raziskovalec pri RAND in profesor na Harvardu.
»Pogovori, ki se začnejo nedolžno, se lahko hitro spremenijo v nevarne.«
Mediji
Komentarji 0
Trenutno ni komentarja na na ta članek ...
...
OPOMBA: Newsexchange stran ne prevzema nobene odgovornosti glede komentatorjev in vsebine ki jo vpisujejo. V skrajnem primeru se komentarji brišejo ali pa se izklopi možnost komentiranja ...