Ekspertuttalelser om AI-sikkerhet
Innsikt og advarsler fra ledende eksperter om risikoene og utfordringene ved avansert AI.
FĂžlgende sitater fra bransjeldere, forskere og fremtredende personer understreker viktigheten av AI-sikkerhet og de potensielle risikoene ved avansert kunstig intelligens.
Jeg tror at i ytterste konsekvens er det en Nick Bostrom-type frykt for at en AGI kunne utslette menneskeheten. Jeg kan ikke se noen prinsipiell grunn til at det ikke kunne skje.
Merk mine ord â AI er langt farligere enn atomvĂ„pen.
Vi mÄ bruke ingeniÞrarbeidet til Ä lÞfte oss selv opp til en vitenskap om AI-er fÞr vi bygger den superintelligente AI-en, slik at den ikke dreper oss alle.
Jeg tror det er viktig at folk forstĂ„r at dette ikke bare er science fiction; det er ikke bare fryktretorikk â det er en reell risiko som vi mĂ„ tenke pĂ„, og vi mĂ„ finne ut pĂ„ forhĂ„nd hvordan vi skal hĂ„ndtere den.
OpenAI trener stadig kraftigere AI-systemer med mÄlet om til slutt Ä overgÄ menneskelig intelligens pÄ alle omrÄder. Dette kan vÊre det beste som noensinne har skjedd menneskeheten, men det kan ogsÄ vÊre det verste hvis vi ikke gÄr frem med forsiktighet.
Jeg begynte med betydelig hÄp om at OpenAI ville stille opp og oppfÞre seg mer ansvarlig nÄr de kom nÊrmere Ä oppnÄ AGI. Det ble gradvis klart for mange av oss at dette ikke ville skje. Jeg mistet gradvis tillit til OpenAI-ledelsen og deres evne til Ä hÄndtere AGI pÄ en ansvarlig mÄte, sÄ jeg sa opp.
Utvikling av overmennskelig maskinintellekt er sannsynligvis den stĂžrste trusselen mot menneskehetens fortsatte eksistens.
à lykkes med Ä skape AI vil vÊre den stÞrste hendelsen i menneskehetens historie. Dessverre kan det ogsÄ bli den siste, med mindre vi lÊrer Ä unngÄ risikoene.
Vi kan fortsatt regulere de nye AI-verktÞyene, men vi mÄ handle raskt. Mens atomvÄpen ikke kan oppfinne kraftigere atomvÄpen, kan AI skape eksponentielt kraftigere AI.
Min vurdering er at sjansen for at noe gÄr virkelig katastrofalt galt pÄ et nivÄ som truer den menneskelige sivilisasjon, kan vÊre et sted mellom 10 og 25 prosent.
Utviklingen av fullstendig kunstig intelligens kan bety slutten for menneskeheten... Den vil ta av pÄ egen hÄnd, og omdesigne seg selv i stadig Þkende tempo.
Vi ser den mest destruktive kraften i historien her. Vi vil fÄ noe som er smartere enn det smarteste mennesket.
Bekymringen er virkelig at vi vil bygge maskiner som er sÄ mye mer kompetente enn oss at selv den minste avvik mellom deres mÄl og vÄre egne kan Þdelegge oss.
Det kommer, uansett kommer det veldig snart, og jeg er ikke sikker pÄ at samfunnet er helt klar for det ennÄ.
En av de stĂžrste risikoene for fremtidens sivilisasjon er AI.
I verste fall â og dette er viktig Ă„ pĂ„peke â er det som Ă„ slukke lyset for oss alle.
Jeg er i den leiren som er bekymret for superintelligens. FÞrst vil maskinene gjÞre mange jobber for oss uten Ä vÊre superintelligente. Noen tiÄr etter det vil intelligensen vÊre sterk nok til Ä vÊre en bekymring.
Vi finner stadig nye sÄrbarheter. Hver dag er det noen som bryter sikkerhetsbegrensningene i Claude og andre modeller. [...] Jeg er faktisk dypt bekymret for at vi om to-tre Är vil nÄ et punkt der modellene kan utfÞre svÊrt farlige ting innen vitenskap, ingeniÞrarbeid, biologi, og da kan et sikkerhetsbrudd bli et spÞrsmÄl om liv eller dÞd.
Det er vanskelig Ä se hvordan man kan hindre aktÞrer med onde hensikter fra Ä bruke det til onde formÄl. Jeg tror vi mÄ bekymre oss mye for det.
Vi mÄ ta risikoene ved AI like alvorlig som andre globale utfordringer, som klimaendringer [...] Det tok det internasjonale samfunnet for lang tid Ä koordinere en effektiv global respons pÄ dette, og vi lever nÄ med konsekvensene. Vi har ikke rÄd til samme forsinkelse med AI.
Kraftige AI-systemer har en god sjanse til bevisst og irreversibelt Ă„ frata menneskeheten makt. Dette er en mye mer sannsynlig feilmodus enn at menneskeheten utsletter seg selv med destruktive fysiske teknologier.
Jeg tar scenariet med eksistensiell risiko alvorlig nok til at jeg ville pause utviklingen.
Hvis jeg ser at internasjonal koordinering ikke skjer, eller skjer i liten grad, er det mer sannsynlig enn ikke at vi utryddes.
Hvis du bygger noe som er mye smartere enn oss, ikke bare litt smartere... men det er mye smartere enn vi er, som vi er i forhold til hunder, liksom, et stort sprang. Da er det i seg selv ganske farlig.
En AI trenger ikke nÞdvendigvis Ä hate oss eller Þnske Ä drepe oss, vi kan bare vÊre i veien eller irrelevante for hvilket som helst fremmed mÄl den har.
mens vi raser mot AGI eller til og med ASI, vet ingen for Ăžyeblikket hvordan en slik AGI eller ASI kan gjĂžres til Ă„ oppfĂžre seg moralsk, eller i det minste oppfĂžre seg som tiltenkt av utviklerne og ikke vende seg mot mennesker
Siden vi ikke virkelig vet hvor raskt teknologiske fremskritt innen AI eller andre steder (f.eks. bioteknologi) vil komme, er det best Ă„ komme i gang med oppgaven med Ă„ bedre regulere disse typene kraftige verktĂžy med en gang.
Vi bygger faktisk, akkurat nÄ, uhyggelige, superkompetente, amoralske psykopater som aldri sover, tenker mye raskere enn oss, kan lage kopier av seg selv og ikke har noe menneskelig ved seg i det hele tatt. Hva kan vel gÄ galt?
Selv om vi «vinner» det globale kapplÞpet om Ä utvikle disse ukontrollerbare AI-systemene, risikerer vi Ä miste vÄr sosiale stabilitet, sikkerhet og muligens til og med vÄr art i prosessen.
Bli med oss i arbeidet med AI-sikkerhetsutfordringer
Vil du lÊre mer om AI-sikkerhet eller bli involvert i vÄrt arbeid? Ta kontakt med oss i dag.
Kontakt oss