KI Sikkerhet Norge - Organisasjon for kunstig intelligens sikkerhetKI Sikkerhet Norge

FĂžlgende sitater fra bransjeldere, forskere og fremtredende personer understreker viktigheten av AI-sikkerhet og de potensielle risikoene ved avansert kunstig intelligens.

Jeg tror at i ytterste konsekvens er det en Nick Bostrom-type frykt for at en AGI kunne utslette menneskeheten. Jeg kan ikke se noen prinsipiell grunn til at det ikke kunne skje.

Jul 2017 - Kilde
Dario Amodei
MedgrĂŒnder og adm. direktĂžr, Anthropic

Merk mine ord — AI er langt farligere enn atomvĂ„pen.

Mar 2018 - Kilde
Elon Musk
Adm. direktĂžr, Tesla, SpaceX og xAI

Vi mÄ bruke ingeniÞrarbeidet til Ä lÞfte oss selv opp til en vitenskap om AI-er fÞr vi bygger den superintelligente AI-en, slik at den ikke dreper oss alle.

Jun 2023 - Kilde
Emmet Shear
Grunnlegger og adm. direktĂžr, Twitch.tv; tidligere midlertidig adm. direktĂžr for OpenAI

Jeg tror det er viktig at folk forstĂ„r at dette ikke bare er science fiction; det er ikke bare fryktretorikk – det er en reell risiko som vi mĂ„ tenke pĂ„, og vi mĂ„ finne ut pĂ„ forhĂ„nd hvordan vi skal hĂ„ndtere den.

Jun 2023 - Kilde
Geoffrey Hinton
AI-gudfar, Turing og Nobel-prisvinner

OpenAI trener stadig kraftigere AI-systemer med mÄlet om til slutt Ä overgÄ menneskelig intelligens pÄ alle omrÄder. Dette kan vÊre det beste som noensinne har skjedd menneskeheten, men det kan ogsÄ vÊre det verste hvis vi ikke gÄr frem med forsiktighet.

Mai 2024 - Kilde
Daniel Kokotajlo
Tidligere OpenAI-forsker og AI-sikkerhetsadvokat

Jeg begynte med betydelig hÄp om at OpenAI ville stille opp og oppfÞre seg mer ansvarlig nÄr de kom nÊrmere Ä oppnÄ AGI. Det ble gradvis klart for mange av oss at dette ikke ville skje. Jeg mistet gradvis tillit til OpenAI-ledelsen og deres evne til Ä hÄndtere AGI pÄ en ansvarlig mÄte, sÄ jeg sa opp.

Mai 2024 - Kilde
Daniel Kokotajlo
Tidligere OpenAI-forsker og AI-sikkerhetsadvokat

Utvikling av overmennskelig maskinintellekt er sannsynligvis den stĂžrste trusselen mot menneskehetens fortsatte eksistens.

Feb 2015 - Kilde
Sam Altman
Administrerende direktĂžr, OpenAI

Å lykkes med Ă„ skape AI vil vĂŠre den stĂžrste hendelsen i menneskehetens historie. Dessverre kan det ogsĂ„ bli den siste, med mindre vi lĂŠrer Ă„ unngĂ„ risikoene.

Mai 2014 - Kilde
Stephen Hawking
Fysiker og kosmolog

Vi kan fortsatt regulere de nye AI-verktÞyene, men vi mÄ handle raskt. Mens atomvÄpen ikke kan oppfinne kraftigere atomvÄpen, kan AI skape eksponentielt kraftigere AI.

Apr 2023 - Kilde
Yuval Noah Harari
Historiker og forfatter

Min vurdering er at sjansen for at noe gÄr virkelig katastrofalt galt pÄ et nivÄ som truer den menneskelige sivilisasjon, kan vÊre et sted mellom 10 og 25 prosent.

Okt 2023 - Kilde
Dario Amodei
MedgrĂŒnder og adm. direktĂžr, Anthropic

Utviklingen av fullstendig kunstig intelligens kan bety slutten for menneskeheten... Den vil ta av pÄ egen hÄnd, og omdesigne seg selv i stadig Þkende tempo.

Des 2014 - Kilde
Stephen Hawking
Fysiker og kosmolog

Vi ser den mest destruktive kraften i historien her. Vi vil fÄ noe som er smartere enn det smarteste mennesket.

Nov 2023 - Kilde
Elon Musk
Adm. direktĂžr, Tesla, SpaceX og xAI

Bekymringen er virkelig at vi vil bygge maskiner som er sÄ mye mer kompetente enn oss at selv den minste avvik mellom deres mÄl og vÄre egne kan Þdelegge oss.

Okt 2016 - Kilde
Sam Harris
Filosof og forfatter

Det kommer, uansett kommer det veldig snart, og jeg er ikke sikker pÄ at samfunnet er helt klar for det ennÄ.

Apr 2024 - Kilde
Demis Hassabis
Administrerende direktĂžr, Google DeepMind; Nobelprisvinner

En av de stĂžrste risikoene for fremtidens sivilisasjon er AI.

Feb 2023 - Kilde
Elon Musk
Adm. direktĂžr, Tesla, SpaceX og xAI

I verste fall – og dette er viktig Ă„ pĂ„peke – er det som Ă„ slukke lyset for oss alle.

Jan 2023 - Kilde
Sam Altman
Administrerende direktĂžr, OpenAI

Jeg er i den leiren som er bekymret for superintelligens. FÞrst vil maskinene gjÞre mange jobber for oss uten Ä vÊre superintelligente. Noen tiÄr etter det vil intelligensen vÊre sterk nok til Ä vÊre en bekymring.

Jan 2015 - Kilde
Bill Gates
MedgrĂŒnder, Microsoft

Vi finner stadig nye sÄrbarheter. Hver dag er det noen som bryter sikkerhetsbegrensningene i Claude og andre modeller. [...] Jeg er faktisk dypt bekymret for at vi om to-tre Är vil nÄ et punkt der modellene kan utfÞre svÊrt farlige ting innen vitenskap, ingeniÞrarbeid, biologi, og da kan et sikkerhetsbrudd bli et spÞrsmÄl om liv eller dÞd.

Jul 2023 - Kilde
Dario Amodei
MedgrĂŒnder og adm. direktĂžr, Anthropic

Det er vanskelig Ä se hvordan man kan hindre aktÞrer med onde hensikter fra Ä bruke det til onde formÄl. Jeg tror vi mÄ bekymre oss mye for det.

Mai 2023 - Kilde
Geoffrey Hinton
KI-gudfar, Turing og Nobel-prisvinner

Vi mÄ ta risikoene ved AI like alvorlig som andre globale utfordringer, som klimaendringer [...] Det tok det internasjonale samfunnet for lang tid Ä koordinere en effektiv global respons pÄ dette, og vi lever nÄ med konsekvensene. Vi har ikke rÄd til samme forsinkelse med AI.

Okt 2023 - Kilde
Demis Hassabis
Administrerende direktĂžr, Google DeepMind; Nobelprisvinner

Kraftige AI-systemer har en god sjanse til bevisst og irreversibelt Ă„ frata menneskeheten makt. Dette er en mye mer sannsynlig feilmodus enn at menneskeheten utsletter seg selv med destruktive fysiske teknologier.

Jun 2022 - Kilde
Paul Christiano
AI Alignment-forsker

Jeg tar scenariet med eksistensiell risiko alvorlig nok til at jeg ville pause utviklingen.

Aug 2023 - Kilde
Sam Harris
Filosof og forfatter

Hvis jeg ser at internasjonal koordinering ikke skjer, eller skjer i liten grad, er det mer sannsynlig enn ikke at vi utryddes.

Jul 2023 - Kilde
Dan Hendrycks
DirektĂžr, Center for AI Safety

Hvis du bygger noe som er mye smartere enn oss, ikke bare litt smartere... men det er mye smartere enn vi er, som vi er i forhold til hunder, liksom, et stort sprang. Da er det i seg selv ganske farlig.

Jun 2023 - Kilde
Emmet Shear
Grunnlegger og adm. direktĂžr, Twitch.tv; tidligere midlertidig adm. direktĂžr for OpenAI

En AI trenger ikke nÞdvendigvis Ä hate oss eller Þnske Ä drepe oss, vi kan bare vÊre i veien eller irrelevante for hvilket som helst fremmed mÄl den har.

Mar 2024 - Kilde
Scott Aaronson
Professor i informatikk, UT Austin

mens vi raser mot AGI eller til og med ASI, vet ingen for Ăžyeblikket hvordan en slik AGI eller ASI kan gjĂžres til Ă„ oppfĂžre seg moralsk, eller i det minste oppfĂžre seg som tiltenkt av utviklerne og ikke vende seg mot mennesker

Jul 2024 - Kilde
Yoshua Bengio
DyplĂŠringspioner, Turing-prisvinner

Siden vi ikke virkelig vet hvor raskt teknologiske fremskritt innen AI eller andre steder (f.eks. bioteknologi) vil komme, er det best Ă„ komme i gang med oppgaven med Ă„ bedre regulere disse typene kraftige verktĂžy med en gang.

Jan 2022 - Kilde
Yoshua Bengio
DyplĂŠringspioner, Turing-prisvinner

Vi bygger faktisk, akkurat nÄ, uhyggelige, superkompetente, amoralske psykopater som aldri sover, tenker mye raskere enn oss, kan lage kopier av seg selv og ikke har noe menneskelig ved seg i det hele tatt. Hva kan vel gÄ galt?

Nov 2023 - Kilde
Max Tegmark
Professor, MIT; AI-sikkerhetsforsker

Selv om vi «vinner» det globale kapplÞpet om Ä utvikle disse ukontrollerbare AI-systemene, risikerer vi Ä miste vÄr sosiale stabilitet, sikkerhet og muligens til og med vÄr art i prosessen.

Okt 2023 - Kilde
Max Tegmark
Professor, MIT; AI-sikkerhetsforsker

Bli med oss i arbeidet med AI-sikkerhetsutfordringer

Vil du lÊre mer om AI-sikkerhet eller bli involvert i vÄrt arbeid? Ta kontakt med oss i dag.

Kontakt oss