Building AI är som att lansera en raket “: Möt mannen kämpar för att stoppa artificiell intelligens förstöra mänskligheten

Jaan Tallinn,. Jarek Joepera / Ambient Sound Investments, med artificiell intelligens, den snabba forskning och omfattningen av dess potentiella fördelar innebära att tech företag alltmer mot full fart framåt utan att tänka på riskerna.

Artificiell intelligens i din varukorg: Maskininlärning för webbutiker, kunna främja artificiell intelligens: Microsoft placerar ut corgis att slå Google på bildbehandling; Kan artificiell intelligens designen din webbplats? The Grid hoppas så

I början av detta år, Elon Musk, skaparen av Tesla och SpaceX, vann $ 10m till framtid Life Institute för att finansiera ett globalt forskningsprogram som syftar till att se till AI gynnar mänskligheten. Institutet är en frivillig drivna forskning och uppsökande organisation grundade i mars förra året av Jaan Tallinn, en av de mest kända estniska tech entreprenörer för sin roll som den grunda ingenjör av Skype och Kazaa.

Boston-området Fokus ligger på att forska potentiella risker från utvecklingen av människa-nivå artificiell intelligens, och dess Scientific Advisory Board medlemmar inkluderar Stephen Hawking, Elon Musk, och flera professorer från universitet inklusive MIT, Oxford, Univeristy of California i Berkeley, och Cambridge, bland andra experter.

Säkerhet, Vita huset utser först Federal Chief Information Security Officer, säkerhet, Pentagon kritiserats för cyber nödsituationer av regeringen vakthund, säkerhet, Chrome att starta märkning HTTP-anslutningar som osäkra, säkerhet, The Hyperledger Project växer som gangbusters

“Att bygga avancerade AI är som att lansera en raket. Den första utmaningen är att maximera acceleration, men när det börjar ta fart, måste du också fokusera på styrning,” Tallinn sade vid tidpunkten för Musk investering.

Tallinn berättade webbplats som, tack vare nästan ett decennium av erfarenhet inom spelindustrin, han har alltid varit intresserad av artificiell intelligens, men hans intresse för att garantera säkerheten för tekniken är en senare utveckling.

SpaceX grundare Elon Musk, fysikern Stephen Hawking, och olika AI forskare tillbaka ett öppet brev uppmanar samhället att förbereda sig för de utmaningar AI kommer att innebära för mänskligheten.

1986 vid bara 16, började han sin karriär skriva programvara för ett lokalt företag montering åttabitarsdatorer för användning i offentliga skolor. Tre år senare Tallinn blev involverad i skapandet av Kosmonaut, den första estniska dataspel som ska offentliggöras utanför landet, och 1993 var han med och grundade Bluemoon Software, som skapat och utvecklat Fasttrack P2P protokollet och välkänd musik-applikationsdelning Kazaa som använde den.

Efter att tillsammans med sina kolleger Bluemoon cofounders Ahti Heinla och Priit Kasesalu, Tallinn hjälpte skapade programvaran för Skype, med hjälp av Kazaa s backend.

Under de senaste åren har intresset för olika tillväxt teknikområden ökat. Till exempel, han grundade personlig medicinsk konsultföretag Metamed 2012 och var en tidig investerare i artificiell intelligens företag DeepMind Technologies, som förvärvades av Google förra året för ungefär $ 650.

Han har också med och grundade två organisationer som studerar AI risk för människor: förutom framtid Life Institute, hjälpte han etablera The Cambridge Centrum för studier av Existentiell Risk (CSER) med Cambridge professorerna Huw Price och Martin Rees.

Teknik och dess inverkan på mänsklighetens framtid har alltid varit fascinerande för honom.

Under många år nu, har jag varit följa och stödja den så kallade X-risk ekosystem “,” där olika organisationer försöker sänka “existentiella risker” från teknologi. “The Future of Life Institute startade efter [cosmologist] Max Tegmark avslutade sin bok och sade att han ville göra något viktigt med den tid som frigjordes som följd. Eftersom jag visste att Max som en mycket kapabel person, bestämde jag mig direkt för att gå och stödja hans projekt “, säger Tallinn.

Tallinn är mest intresserad av “styrproblem” räkna ut hur man förutsäga och / eller kraftigt begränsa smarta autonoma system. “Det är både en av de mest utmanande problem inom området samt helt under uppskattat”, säger han.

Enligt Tallinn, mänskligheten står inför en rad olika risker som härrör från den snabba utvecklingen av AI, och det är inte bara teknologisk singularitet som bör gälla oss.

“Om vi ​​räknar de potentiella biljoner livet för människor som ännu ofödda (som vi borde, tror jag), sedan existentiella risker dominerar helt allt annat. Om vi ​​bara räknar människors liv redan vid liv, så finns det andra utmaningar, såsom som smarta system störa arbetsmarknaden “, säger Tallinn.

Han tror att även om vi fortfarande inte kan förutsäga exakt när genombrottet i singulariteten kommer att äga rum, bör vi ändå vara redo för om och när det händer.

“Flera undersökningar av AI experter tyder på en 50 procents sannolikhet för människa-nivå eller övermänsklig AI i mitten av detta århundrade. Naturligtvis sådana undersökningar är inte tillförlitliga prediktorer, men är osäker på en viktig framtida händelse är inte grund för självbelåtenhet antingen ,” han sa.

Tallinn anser att de regler och avtal om utvecklingen av AI ska dyka upp från industrin snarare än från internationella politiska institutioner.

“Jag har inte sett några tecken på beslutsfattarna att förstå AI säkerhetsproblem, så förordningen kommer nästan säkert göra mer skada än nytta i detta skede. Jag tror att det är viktigt att först komma fram till en samsyn inom AI industrin om potentiella strategier och bestämmelser ,” han sa.

Tallinn förväntar nästa stora utveckling i AI att konsumenterna kommer att uppleva i sin vardag för att vara själv köra bil.

“Det kommer att bli en stor förändring när de anländer, på grund av de överlappande effekter de skulle få på ekonomin också -. Kanske lite längre bort – AI-assisted augmented reality kommer förmodligen att vara enorm”, sade han.

artificiell intelligens

Vita huset utser först Federal Chief Information Security Officer

Pentagon kritiserats för cyber nödsituationer av regeringen vakthund

Krom att börja märkning HTTP-anslutningar som osäkra

Den Hyperledger Project växer som gangbusters