Umjetna inteligencija već je daleko od R2-D2. Ovih bi dana većina milenijala bila izgubljena bez pametnih GPS sustava. Roboti već kreću po bojnim poljima, a bespilotne letjelice uskoro mogu isporučiti Amazonove pakete na naše kućne pragove.
Siri može riješiti složene jednadžbe i reći vam kako kuhati rižu. Dokazala je čak da na pitanja može odgovarati s smislom za humor.
Ali svi ti pomaci ovise o korisniku koji daje smjer AI. Što bi se dogodilo ako GPS jedinice odluče da ne žele ići na kemijsko čišćenje, ili još gore, Siri je odlučila da bi mogla postati pametnija bez vas?
Naš konačni izum: umjetna inteligencija i kraj ljudske ere. "> Naš konačni izum: Umjetna inteligencija i kraj ljudske ere. ">" Prije nego što dijelimo planet sa superinteligentnim strojevima, moramo razviti znanost za njihovo razumijevanje. U suprotnom, oni će preuzeti kontrolu ", kaže autor James Barrat o svojoj novoj knjizi, Naša konačna izum: Umjetna inteligencija i kraj ljudske ere (ljubazno od Jamesa Barrata)Ovo su samo najmučniji ishodi James Barrat, autora i filmaša dokumentarnih filmova, prognozira u svojoj novoj knjizi Naš konačni izum: umjetna inteligencija i kraj ljudske ere .
Ubrzo, Barrat kaže, umjetna inteligencija - od Siri do bespilotnih dronova i sustava za vađenje podataka - prestat će tražiti ljude za nadogradnjom i počet će samostalno tražiti poboljšanja. A za razliku od znanstvene fantastike R2-D2 i HAL, AI naše budućnosti neće nužno biti prijateljski, kaže on: oni bi zapravo mogli biti ono što nas uništava.
Ukratko, možete li objasniti svoju veliku ideju?
U ovom stoljeću znanstvenici će stvoriti strojeve s inteligencijom koja je jednaka, a zatim nadmašuje našu vlastitu. Ali prije nego što dijelimo planet sa super inteligentnim strojevima, moramo razviti znanost za njihovo razumijevanje. U suprotnom, oni će preuzeti kontrolu. I ne, ovo nije znanstvena fantastika.
Znanstvenici su već stvorili strojeve koji su bolji od ljudi u šahu, Jeopardy!, navigacija, vađenje podataka, pretraživanje, dokazivanje teorema i bezbroj drugih zadataka. Na kraju će se stvoriti strojevi koji su bolji od ljudi u AI istraživanju
U tom će trenutku vrlo brzo moći poboljšati vlastite mogućnosti. Ovi samopoboljšavajući se strojevi slijede ciljeve s kojima su stvoreni, bilo da su u svemiru istraživali, igrali šah ili skupljali zalihe. Da bi uspjeli oni će tražiti i trošiti resurse, bilo da su energija ili novac. Nastojat će izbjeći načine kvarova, poput isključivanja ili isključenja iz mreže. Ukratko, razviti će pogone, uključujući samozaštitu i prikupljanje resursa - pogone koji su slični našem. Oni se neće ustručavati moliti, pozajmljivati, krasti i još gore da dobiju ono što im treba.
Kako ste se zainteresirali za ovu temu?
Redatelj sam dokumentarnog filma. 2000. godine intervjuirao sam izumitelja Raya Kurzweila, robotičara Rodneya Brooksa i znanstveno-fantastičnu legendu Arthura C. Clarkea za TLC film o nastanku romana i filma, 2001: Svemirska odiseja. Intervjui su istraživali ideju Hal 9000 i zlonamjerna računala. Kurzweilove knjige prikazale su AI budućnost kao raskošnu „posebnost“, razdoblje u kojem tehnološki napredak nadmašuje mogućnost ljudi da ih razumiju. Ipak, predviđao je samo dobre stvari koje izlaze iz AI-ja dovoljno jake da odgovaraju i tada nadmašuju ljudsku inteligenciju. Predviđa da ćemo moći reprogramirati stanice naših tijela da poraze bolest i starenje. Razvit ćemo super izdržljivost s nanobotima koji isporučuju više kisika od crvenih krvnih stanica. Napunit ćemo mozak računalnim implantatima kako bismo postali superinteligentni. A mozak ćemo prenositi na trajniji medij od našeg sadašnjeg "softwarea" i živjeti zauvijek ako to želimo. Brooks je bio optimističan, inzistirajući da roboti koji su poboljšani AI postaju saveznici, a ne prijetnja.
Autor, Clarke, okrenut znanstveniku, s druge strane, bio je pesimističan. Rekao mi je da će inteligencija pobijediti, a ljudi će se vjerojatno natjecati za preživljavanje sa superinteligentnim strojevima. Nije bio specifičan za ono što će se dogoditi kada planet dijelimo sa super inteligentnim strojevima, ali smatrao je da to ne bi pobijedilo za čovječanstvo.
To je u suprotnosti sa svime što sam mislio o AI, pa sam počeo intervjuirati stručnjake za umjetnu inteligenciju.
Koje dokaze imate za potporu svojoj ideji?
Napredna umjetna inteligencija tehnologija je s dvostrukom uporabom, poput nuklearne fisije, koja može stvoriti veliku ili veliku štetu. Tek počinjemo uviđati štetu.
Do skandala s privatnošću NSA došlo je zbog toga što je NSA razvila vrlo sofisticirane alate za vađenje podataka. Agencija je upotrijebila svoje snage kako bi obrisala metapodatke o milijunskim telefonskim pozivima i cijelom Internetu - kritički, svu e-poštu. Zavedena snagom AI za prikupljanje podataka, agencija kojoj je povjerena zaštita Ustava umjesto toga je zloupotrijebila. Razvili su previše moćne alate da bi ih mogli odgovorno koristiti.
Danas se vodi još jedna etička bitka oko izrade potpuno autonomnih bespilotnih bespilotnih bespilotnih letelica i bojnih robota koje pokreće napredni AI - ubica ljudi bez ljudi u petlji. Razvija se između Ministarstva obrane i proizvođača dronova i robota koje plaća DOD i ljudi koji misle da je glupo i nemoralno stvarati inteligentne mašine za ubijanje. Oni koji se zalažu za autonomne bespilotne letelice i robote na bojnom polju tvrde da će oni biti moralniji - odnosno, manje emotivni, da će ciljati bolje i biti discipliniraniji od ljudskih operatora. Oni protiv izvlačenja ljudi iz petlje promatraju bijednu povijest bespilotnih letjelica ubijanja civila i sudjelovanja u izvanzakonitim atentatima. Tko podnosi moralnu krivnju kada robot ubije? Proizvođači robota, korisnici robota ili nitko? Nikad se nemojte prisjetiti tehničkih prepreka da kažete neprijatelju.
Dugoročno, kako tvrde stručnjaci moje knjige , AI koji pristupa inteligenciji na ljudskoj razini neće biti lako kontrolirati; nažalost, super-inteligencija ne podrazumijeva dobrohotnost. Kao što teoretičar AI Eliezer Yudkowsky iz MIRI-ja (Instituta za strojnu inteligenciju) kaže: "AI vas ne voli, niti vas mrzi, ali vi ste napravljeni od atoma, on može koristiti za nešto drugo." budemo ugrađeni u stroj, tada ćemo stvarati super inteligentne psihopate, stvorenja bez moralnih kompasa i dugo nećemo biti njihovi gospodari.
Što je novo u vašem razmišljanju?
Pojedinci i skupine različiti kao američki informatičar Bill Joy i MIRI odavno upozoravaju da se moramo puno bojati od strojeva čija inteligencija pomračuje našu vlastitu. U našoj Finalnoj izumu tvrdim da će se AI također zloupotrijebiti na razvojnom putu inteligencije na ljudskoj razini. Između današnjeg i dana kada znanstvenici stvaraju inteligenciju na ljudskoj razini, imat ćemo greške u vezi s AI i kaznene prijave.
Zašto nije učinjeno više ili što čini da se AI ne uključi u nas?
Nema razloga, ali postoji mnogo. Neki stručnjaci ne vjeruju da smo dovoljno bliski za stvaranje umjetne inteligencije na razini čovjeka i šire, da bismo brinuli o svojim rizicima. Mnogi proizvođači AI osvajaju ugovore s agencijom za napredne obrambene istraživačke projekte [DARPA] i ne žele postavljati pitanja koja smatraju političkim. Predrasuda normalnosti kognitivna je pristranost koja sprečava ljude da reagiraju na katastrofe i katastrofe u nastajanju - to je definitivno dio toga. Ali puno proizvođača AI nešto radi. Pogledajte znanstvenike koji savjetuju MIRI. I puno više će se uključiti kad opasnosti naprednog AI uđu u uobičajeni dijalog.
Možete li opisati trenutak kada ste znali da je ovo veliko?
Mi ljudi upravljamo budućnošću ne zato što smo najbrža ili najjača stvorenja na planeti, već zato što smo najpametniji. Kad dijelimo planet sa bićima pametnijima od nas samih, oni će usmjeravati budućnost. Kad sam shvatio ovu ideju, osjetio sam da pišem o najvažnijem pitanju našeg vremena.
Svaki veliki mislilac ima prethodnike čiji je rad bio presudan za njegovo otkriće. Tko vam je dao temelje za izgradnju vaše ideje?
Temelje analize rizika od AI razvio je matematičar IJ Good, pisac znanstvene fantastike Vernor Vinge, i drugi, uključujući programer AI Steve Omohundro. Danas su MIRI i Oxford Institut za budućnost čovječanstva gotovo sami u rješavanju ovog problema. Naš konačni izum ima oko 30 stranica nota sa priznanjem tih mislilaca.
U istraživanju i razvoju vaše ideje, što je najvažnije? A niska točka?
Najvažnije točke bile su pisanje Naša konačna izuma i moj stalni dijalog s proizvođačima i teoretičarima AI. Ljudi koji programiraju AI svjesni su sigurnosnih problema i žele im pomoći u izradi sigurnosnih mjera. Na primjer, MIRI radi na stvaranju "prijateljskog" AI-ja
Računalski znanstvenik i teoretičar Steve Omohundro zagovarao je "skele" pristup, u kojem dokazano siguran AI pomaže izgraditi novu generaciju AI kako bi se osiguralo da i ona bude sigurna. Onda taj AI čini isto, i tako dalje. Mislim da bi trebalo stvoriti javno-privatno partnerstvo kako bi se proizvođači AI povezali i dijelili ideje o sigurnosti - nešto poput Međunarodne agencije za atomsku energiju, ali u partnerstvu s korporacijama. Niske točke? Shvativši da će za kreiranje oružja biti korištena najbolja, najnaprednija AI tehnologija. A ta će se oružja na kraju okrenuti protiv nas.
Koje će dvije ili tri osobe najvjerojatnije pokušati pobiti vašu argumentaciju? Zašto?
Izumitelj Ray Kurzweil je glavni ispričavatelj naprednih tehnologija. U moja dva intervjua s njim, tvrdio je da ćemo se s AI tehnologijama stopiti kroz kognitivna poboljšanja. Kurzweil i ljudi široko zvani transhumanisti i singularitari misle da će se AI i konačno umjetna opća inteligencija i šire razvijati s nama. Na primjer, računalni implantati poboljšat će brzinu našeg mozga i njegove opće mogućnosti. Na kraju ćemo razviti tehnologiju za transport naše inteligencije i svijesti u računala. Tada će super-inteligencija biti barem djelomično ljudska, što bi u teoriji osiguralo da je super-inteligencija "sigurna".
Iz mnogih razloga nisam ljubitelj ove točke gledišta. Problem je u tome što mi ljudi nismo pouzdano sigurni, a čini se da je malo inteligentnih ljudi oboje. Mi nemamo pojma što se događa s ljudskom etikom nakon što se pojača njihova inteligencija. Imamo biološku osnovu za agresiju koja nedostaje strojevima. Super-inteligencija bi vrlo dobro mogla biti množitelj agresije.
Tko će najviše utjecati na tu ideju?
Svi na planeti imaju mnogo straha od neuređenog razvoja superinteligentnih strojeva. Trenutno traje utrka obavještajne službe. Postizanje AGI-ja je posao broj jedan za Google, IBM i mnoge manje tvrtke poput Vicarious i Deep Thought, kao i DARPA, NSA i vlade i tvrtke u inozemstvu. Profit je glavna motivacija te utrke. Zamislite jedan vjerojatni cilj: virtualni ljudski mozak po cijenu računala. Bila bi to najpovoljnija roba u povijesti. Zamislite banke tisuća doktorskih dokumenata kvalitete 24/7 na razvoju farmaceutskih proizvoda, istraživanju raka, razvoju oružja i još mnogo toga. Tko ne bi želio kupiti tu tehnologiju?
U međuvremenu, 56 nacija razvija robote na bojnim poljima, a cilj im je učiniti ih, i bespilotne letjelice, autonomnim. Oni će biti strojevi koji ubijaju, a ne kontroliraju ljude. Osiromašene nacije najviše će biti povrijeđene od autonomnih bespilotnih letjelica i robota. U početku će samo bogate zemlje moći priuštiti autonomne robove ubijanja, tako da će bogate nacije nositi to oružje protiv ljudskih vojnika iz osiromašenih naroda.
Kako bi mogao promijeniti život, kakav znamo?
Zamislite: u samo deset godina, pola tuceta tvrtki i nacija pokreću računala koja suparuju ili nadmašuju ljudsku inteligenciju. Zamislite što se događa kad ta računala postanu stručnjak za programiranje pametnih računala. Uskoro ćemo dijeliti planetu sa strojevima tisućama ili milijunima puta inteligentnijima nego što smo mi. I sve to vrijeme će svaka generacija ove tehnologije biti naoružana. Neregulirano, bit će katastrofalno.
Koja pitanja ostaju bez odgovora?
Rješenja. Očigledno rješenje bilo bi dati strojevima moralni smisao koji ih čini vrijednim ljudskog života i imovine. Ali ispada programiranje etike u stroj izrazito je teško. Moralne norme razlikuju se od kulture do kulture, mijenjaju se s vremenom i kontekstualne su. Ako se mi ljudi ne možemo složiti kad započne život, kako možemo reći stroju da štiti život? Želimo li zaista biti sigurni ili stvarno želimo biti slobodni ? Možemo raspravljati o tome cijeli dan i ne postići konsenzus, pa kako to uopće možemo programirati?
Također, kao što sam već napomenuo, moramo spojiti AI programere. U 1970-ima, rekombinantni DNA istraživači odlučili su obustaviti istraživanje i zajedno se naći na konferenciji u Asilomaru u Pacific Groveu u Kaliforniji. Razvili su osnovne sigurnosne protokole poput "ne prate DNK na vašim cipelama", zbog straha da će kontaminirati okoliš genetskim radovima u tijeku. Zbog "Asilomar smjernica", svijet ima koristi od genetski modificiranih kultura, a genska terapija izgleda obećavajuće. Koliko znamo, izbjegavale su se nesreće. Vrijeme je za Asilomar konferenciju za AI
Što vam stoji na putu?
Ogroman ekonomski vjetar potiče razvoj napredne inteligencije intelektualne razine AI po cijeni računala koja će biti najtoplija roba u povijesti. Google i IBM neće htjeti dijeliti svoje tajne s javnošću ili konkurentima. Ministarstvo obrane neće htjeti otvoriti svoje laboratorije za Kinu i Izrael, i obrnuto. Javna svijest mora politiku gurnuti prema otvorenosti i javno-privatnim partnerstvima osmišljenim kako bi se osigurala sigurnost.
Što je sljedeće za vas?
Redatelj sam dokumentarnog filma, tako da, naravno, razmišljam o filmskoj verziji Našeg konačnog izuma .