Vi trenger sterkere regulatoriske rammeverk sammenlignbart med andre høyrisikoindustrier for å sikre at KI-utvikling fortsetter på en trygg og fordelaktig måte. Dette vil til slutt involvere samarbeid mellom alle store nasjoner for å strengt regulere utviklingen og utplasseringen av generelt kapable kunstig intelligens-systemer.
Danner grunnlaget for KI-sikkerhet i Norge
Ledende KI-forskere advarer om at vi raser mot en potensiell katastrofe. Vi samler forskere, beslutningstakere og bransjeeksperter for å sikre at kunstig intelligens (KI) utvikles på en trygg måte og kommer menneskeheten til gode. Bli med i arbeidet for en fremtid der KI er en positiv kraft for samfunnet.
Erklæringen ovenfor ble støttet av over 350 eksperter, inkludert AI-ledere som Sam Altman (OpenAI), Demis Hassabis (Google DeepMind), Dario Amodei (Anthropic), og Turing-prisvinnerne Geoffrey Hinton og Yoshua Bengio.
Den tar sikte på å fremheve de potensielle eksistensielle risikoene ved avansert AI og oppfordre til global prioritering av AI-sikkerhet.
Utfordringen vi står overfor
KI-kappløpet
Konkurranse mellom ledende KI-laboratorier og nasjoner driver et kappløp mot stadig mer avanserte KI-systemer på bekostning av alles sikkerhet.
Eksistensiell trussel
Ledende KI-forskere og ledere advarer uopphørlig om de katastrofale og eksistensielle farene ved fremskridende kunstig intelligens.
Den nåværende kursen
Kursen vi er på nå er ikke trygg og innebærer uakseptable risikoer for menneskeheten.
KI-selskaper konkurrerer om å bygge kunstig superintelligens (ASI) - systemer som er mer intelligente enn hele menneskeheten kombinert. For øyeblikket finnes det ingen metode for å begrense eller kontrollere KI-systemer som er smartere enn mennesker. Hvis disse selskapene lykkes, vil konsekvensene være katastrofale. Ledende KI-forskere, verdensledere og til og med administrerende direktører i KI-selskapene selv, advarer om at dette kan føre til menneskehetens utslettelse.
Hva ledere sier om KI sikkerhet
Utvikling av overmennskelig maskinintellekt er sannsynligvis den største trusselen mot menneskehetens fortsatte eksistens.
Feb 2015 - Kilde
Merk mine ord — AI er langt farligere enn atomvåpen.
Mar 2018 - Kilde
Min vurdering er at sjansen for at noe går virkelig katastrofalt galt på et nivå som truer den menneskelige sivilisasjon, kan være et sted mellom 10% og 25%.
Okt 2023 - Kilde
Vi bygger faktisk, akkurat nå, uhyggelige, superkompetente, amoralske psykopater som aldri sover, tenker mye raskere enn oss, kan lage kopier av seg selv og ikke har noe menneskelig ved seg i det hele tatt. Hva kan vel gå galt?
Nov 2023 - Kilde
Vi må ta risikoene ved AI like alvorlig som andre globale utfordringer, som klimaendringer [...] Det tok det internasjonale samfunnet for lang tid å koordinere en effektiv global respons på dette, og vi lever nå med konsekvensene. Vi har ikke råd til samme forsinkelse med AI.
Okt 2023 - Kilde
mens vi raser mot AGI eller til og med ASI, vet ingen for øyeblikket hvordan en slik AGI eller ASI kan gjøres til å oppføre seg moralsk, eller i det minste oppføre seg som tiltenkt av utviklerne og ikke vende seg mot mennesker
Jul 2024 - Kilde