Hva er navnet på det etiske rammeverket som vurderer konsekvensene av AI-teknologier?
Navnet på det etiske rammeverket som vurderer konsekvensene av AI-teknologier er "Asilomar AI Principles". Disse prinsippene ble utviklet under en konferanse i Asilomar, California, i 2017.
Asilomar AI Principles er en samling av 23 retningslinjer som tar for seg sikkerhet, etikk og fremtidige implikasjoner av AI. Blant temaene som dekkes er hvordan AI kan utvikles på en gunstig måte for menneskeheten, samt å sikre transparens og rettferdighet i AI-systemene.
Disse prinsippene har fått internasjonal støtte fra mange forskere og teknologiledere og fungerer som et grunnlag for ansvarlig AI-utvikling.