Podjetja z umetno inteligenco morajo dokazati, da je njihova umetna inteligenca varna, pravijo neprofitne organizacije

Neprofitne organizacije Accountable Tech, AI Now in Electronic Privacy Information Center (EPIC) so izdale predloge politik, ki želijo omejiti, koliko moči imajo velika podjetja z umetno inteligenco pri regulaciji, ki bi lahko tudi razširila moč vladnih agencij proti nekaterim uporabam generativne umetne inteligence. Skupina je ta mesec poslala okvir politikom in vladnim agencijam predvsem v ZDA in jih prosila, naj ga upoštevajo pri oblikovanju novih zakonov in predpisov o umetni inteligenci. Okvir, ki ga imenujejo Zero Trust AI Governance, temelji na treh načelih: uveljavljanje obstoječih zakonov; ustvarite drzna, enostavno implementirana svetla pravila; in podjetjem naložiti breme, da dokažejo, da sistemi umetne inteligence niso škodljivi v vsaki fazi življenjskega cikla umetne inteligence. Njegova definicija umetne inteligence zajema tako generativno umetno inteligenco kot temeljne modele, ki jo omogočajo, skupaj z algoritemskim odločanjem. “Ogrodje smo želeli pripraviti zdaj, ker se tehnologija hitro razvija, vendar se novi zakoni ne morejo premikati s tako hitrostjo,” Jesse Lehrich, soustanovitelj Accountable Tech Accountable Tech


Posted

in

by

Tags:

Comments

Komentiraj