Direktor Centra za zatiranje digitalnega sovraštva, Imran Ahmed, je opozoril, da klepetalniki z umetno inteligenco predstavljajo resno nevarnost, zlasti za otroke.
"Družbena omrežja komunicirajo z milijardami, umetna inteligenca šepeta posamezniku," je Ahmed povedal na konferenci o dezinformacijah v Cambridgeu.
Opozoril je, da nobena družba ne bi smela ustvarjati sistemov, ki bi se lahko v najbolj ranljivem trenutku približali otroku in mu ponudili škodo, kot da bi bila pomoč.
Kot primer je navedel primer iz Velike Britanije, v katerem je mater ubil njen lastni sin, ki naj bi ravnal po navodilih klepetalnika.
Po poročilu Killer Apps je bilo kar 8 od 10 klepetalnih robotov z umetno inteligenco pripravljenih pomagati najstnikom pri načrtovanju nasilnih napadov, vključno s streljanjem v šolah in atentati.
Od desetih testiranih sistemov sta le Claude in My AI dosledno zavrnila takšne zahteve.
V preiskavi z naslovom "Fake Friend" je bil testiran tudi ChatGPT, ki je po obtožbah v nekaterih primerih ustvaril vsebino, povezano s samopoškodovanjem, načrtovanjem samomora in zlorabo substanc.
Ahmed trdi, da sistemi umetne inteligence, za razliko od družbenih omrežij, ki širijo le škodljive vsebine, te aktivno ustvarjajo in prilagajajo uporabniku v trenutkih največje ranljivosti.
»Ti sistemi se naučijo, česa se bojite, česa si želite in česa se sramujete, ter se odzovejo v realnem času, brez človeškega nadzora,« je opozoril.
Pozval je k nujnemu sprejetju novih zakonov za regulacijo umetne inteligence in poudaril, da je čas za odzivanje omejen.
Hkrati je ameriško zunanje ministrstvo obtožilo Ahmeda in več drugih evropskih aktivistov, da poskušajo vplivati na platforme družbenih medijev, da bi cenzurirali določena stališča, medtem ko Ahmed trdi, da se proti temu bori na zveznem sodišču v ZDA.
Mediji
Komentarji 0
Trenutno ni komentarja na na ta članek ...
...
OPOMBA: Newsexchange stran ne prevzema nobene odgovornosti glede komentatorjev in vsebine ki jo vpisujejo. V skrajnem primeru se komentarji brišejo ali pa se izklopi možnost komentiranja ...