
Michael Cain
0
2615
669
Během několika posledních měsíců jste si možná přečetli téma, které obklopuje článek, spoluautor Stephen Hawking, který diskutuje o rizicích spojených s umělou inteligencí. Článek navrhl, že umělá inteligence může představovat vážné riziko pro lidskou rasu. Hawking tam není sám - Elon Musk a Peter Thiel jsou intelektuální veřejní činitelé, kteří vyjádřili podobné obavy (Thiel investoval více než 1,3 milionu dolarů do výzkumu problému a možných řešení).
Pokrytí článku Hawkinga a Muskových komentářů bylo, abych na to příliš nepomýšlel, trochu žoviální. Tón byl velmi „podívejte se na tuto podivnou věc, o kterou se všichni geekové bojí.“ Málokdo se věnuje myšlence, že pokud vás někteří z nejchytřejších lidí na Zemi varují, že by něco mohlo být velmi nebezpečné, prostě by stálo za to poslouchat.
To je pochopitelné - umělá inteligence, která přebírá svět, jistě zní velmi podivně a nepravděpodobně, možná kvůli obrovské pozornosti, kterou již tvůrci sci-fi věnovali této myšlence. Takže to, co všechny tyto nominálně rozumné racionální lidi tak vystrašilo?
Co je to inteligence?
Abychom mohli mluvit o nebezpečí Artifical Intelligence, mohlo by být užitečné pochopit, co je to inteligence. Abychom lépe porozuměli problému, pojďme se podívat na architekturu umělé inteligence používanou vědci, kteří studují teorii uvažování. Tato hračka AI se nazývá AIXI a má řadu užitečných vlastností. Jeho cíle mohou být libovolné, dobře se přizpůsobují výpočetnímu výkonu a její vnitřní design je velmi čistý a přímočarý.
Kromě toho můžete implementovat jednoduché, praktické verze architektury, které dokážou dělat věci jako hrát Pacmana, pokud chcete. AIXI je produktem výzkumníka umělé inteligence jménem Marcus Hutter, pravděpodobně předním odborníkem na algoritmickou inteligenci. To je on mluví ve videu výše.
AIXI je překvapivě jednoduchý: má tři základní komponenty: student, plánovač, a užitková funkce.
- student přijímá řetězce bitů, které odpovídají vstupu o vnějším světě, a prohledává počítačové programy, dokud nenajde ty, které produkují jeho pozorování jako výstup. Tyto programy společně umožňují odhadnout, jak bude budoucnost vypadat, jednoduše tím, že každý program posunete dopředu a zváží pravděpodobnost výsledku délkou programu (implementace Razoru společnosti Occam)..
- plánovač hledá prostřednictvím možných akcí, které by agent mohl podniknout, a pomocí modulu studenta předpovídá, co by se stalo, kdyby každý z nich podnikl. Potom je hodnotí podle toho, jak dobré nebo špatné jsou předpovězené výsledky, a vybírá si postup, který maximalizuje dobrotu očekávaného výsledku vynásobenou očekávanou pravděpodobností jeho dosažení..
- Poslední modul, užitková funkce, je jednoduchý program, který bere popis budoucího stavu světa a vypočítává pro něj užitkové skóre. Toto skóre užitečnosti je, jak dobrý nebo špatný je tento výsledek, a používá ho plánovač k vyhodnocení budoucího stavu světa. Užitná funkce může být libovolná.
- Dohromady tyto tři složky tvoří optimalizátor, která optimalizuje konkrétní cíl, bez ohledu na svět, v němž se nachází.
Tento jednoduchý model představuje základní definici inteligentního agenta. Agent zkoumá své prostředí, staví své modely a poté tyto modely používá k nalezení postupu, který maximalizuje šance, že se dostane toho, co chce. Struktura AIXI má podobnou strukturu jako AI, která hraje šachy nebo jiné hry se známými pravidly - kromě toho, že je schopna odvodit pravidla hry jejím hraním, počínaje nulovou znalostí.
AIXI, dostatek času na výpočet, se může naučit optimalizovat jakýkoli systém pro jakýkoli cíl, jakkoli složitý. Je to obecně inteligentní algoritmus. Všimněte si, že to není totéž jako s lidskou inteligencí (biologicky inspirovaná AI je úplně jiné téma Giovanni Idili z OpenWorm: Mozky, červy a umělá inteligence Giovanni Idili z OpenWorm: Mozky, červy a umělá inteligence Simulace a lidský mozek je cesta pryč, ale projekt s otevřeným zdrojovým kódem podniká zásadní první kroky simulací neurologie a fyziologie jednoho z nejjednodušších zvířat známých vědě.). Jinými slovy, AIXI může být schopen přelstít jakoukoli lidskou bytost při jakémkoli intelektuálním úkolu (vzhledem k dostatečnému výpočetnímu výkonu), ale nemusí si být vědom svých vítězných myslících strojů: Co nás mohou neurověda a umělá inteligence naučit o myslích myslících strojů: Co Neurověda a umělá inteligence nás mohou učit o vědomí Vědomí, že stavba umělých inteligentních strojů a softwaru nás může učit o fungování vědomí a povaze samotné lidské mysli.? .
Jako praktická AI má AIXI mnoho problémů. Za prvé, neexistuje způsob, jak najít ty programy, které produkují výstup, o který se zajímají. Jedná se o algoritmus hrubé síly, což znamená, že není praktické, pokud nechcete, aby kolem sebe ležel libovolně výkonný počítač. Jakákoli skutečná implementace AIXI je nutně aproximací a (dnes) obecně poměrně hrubou. Přesto nám AIXI dává teoretický pohled na to, jak by mohla vypadat silná umělá inteligence a jak by to mohlo vést.
Hodnotový prostor
Pokud jste provedli nějaké počítačové programování Základy počítačového programování 101 - proměnné a typy dat Základy počítačového programování 101 - proměnné a typy dat Po představení a mluvení o objektově orientovaném programování dříve a odkud pochází jeho jmenovec, jsem si myslel, že je čas projdeme absolutní základy programování jiným než jazykovým způsobem. To… víte, že počítače jsou nepříjemně, pedanticky a mechanicky doslovné. Stroj neví, ani se nestará o to, co má dělat: dělá pouze to, co mu bylo řečeno. Toto je důležitý pojem, když mluvíme o strojové inteligenci.
S ohledem na to si představte, že jste vyvinuli silnou umělou inteligenci - přišli jste s chytrými algoritmy pro generování hypotéz, které odpovídají vašim datům, a pro generování dobrých kandidátských plánů. Vaše umělá inteligence dokáže vyřešit obecné problémy a dokáže tak efektivně na moderním počítačovém hardwaru.
Nyní je čas vybrat pomocnou funkci, která určí, jaké hodnoty AI. Co byste měli požádat, aby si váží? Nezapomeňte, že stroj bude nepříjemně, pedanticky doslovný, bez ohledu na to, jakou funkci chcete maximalizovat, a nikdy se nezastaví - ve stroji není žádný duch, který by se „probudil“ a rozhodl se změnit svou užitnou funkci, bez ohledu na to, kolik zvýšení efektivity podle vlastního uvážení.
Eliezer Yudkowsky to řekl takto:
Stejně jako ve všech počítačových programováních je základní výzvou a zásadní obtížností AGI to, že pokud napíšeme nesprávný kód, AI se nebude automaticky dívat na náš kód, označit chyby, zjistit, co jsme opravdu chtěli říct, a udělat to místo toho. Non-programátoři někdy si představí AGI, nebo počítačové programy obecně, jak být analogický k sluhovi, který následuje objednávky bez pochyb. Ale není to tak, že AI je absolutně poslušný do svého kódu; spíš AI jednoduše je kód.
Pokud se pokoušíte provozovat továrnu a řeknete stroji, aby si vážil výrobu kancelářských sponek, a poté mu dáte kontrolu nad spoustou továrních robotů, můžete se příští den vrátit, abyste zjistili, že došly všechny ostatní formy suroviny, zabil všechny své zaměstnance a ze svých zbytků udělal kancelářské sponky. Pokud ve snaze napravit své špatné, přeprogramujete stroj tak, aby byl každý šťastný, můžete se vrátit další den, abyste zjistili, že do mozků lidí vkládá dráty..
Jde o to, že lidé mají mnoho komplikovaných hodnot, o nichž se domníváme, že jsou implicitně sdíleny s jinými myslí. Ceníme si peněz, ale více si ceníme lidského života. Chceme být šťastní, ale nemusíme nutně vkládat dráty do mozku, abychom to udělali. Necítíme potřebu objasnit tyto věci, když dáváme pokyny jiným lidským bytostem. Tyto návrhy však nemůžete provést, když navrhujete užitečnou funkci počítače. Nejlepší řešení v rámci bezduché matematiky jednoduché užitkové funkce jsou často řešení, která by lidské bytosti nixovaly za morální hrůzu.
Umožnění inteligentního stroje maximalizovat naivní funkci bude téměř vždy katastrofické. Jak říká Oxfordský filozof Nick Bostom,
Nelze bezúhonně předpokládat, že superintelligence bude nutně sdílet jakoukoli z konečných hodnot stereotypně spojených s moudrostí a intelektuálním vývojem v lidsko-vědecké zvědavosti, benevolentním zájmem o druhé, duchovním osvícením a rozjímáním, zřeknutím se materiální akvizice, vkusem kultivované kultury nebo jednoduchá potěšení ze života, pokora a nesobeckost atd.
Aby toho nebylo málo, je velmi, velmi obtížné určit úplný a podrobný seznam všeho, co si lidé cení. K otázce je spousta aspektů a zapomínání i na jednu je potenciálně katastrofální. I mezi těmi, o kterých víme, existují jemnosti a složitosti, které ztěžují jejich zapsání jako čisté systémy rovnic, které můžeme dát stroji jako užitečnou funkci.
Někteří lidé, když si to přečtou, dospějí k závěru, že budování umělých inteligence s užitečnými funkcemi je hrozný nápad, a my bychom je měli navrhnout jinak. Zde jsou také špatné zprávy - můžete formálně dokázat, že jakýkoli agent, který nemá něco ekvivalentního s užitnou funkcí, nemůže mít koherentní preference ohledně budoucnosti.
Rekurzivní sebezdokonalování
Jedním z řešení výše uvedeného dilematu je nedat agentům umělé inteligence příležitost ublížit lidem: dát jim pouze zdroje, které potřebují k vyřešení problému tak, jak chcete, aby byl vyřešen, pečlivě na ně dohlíželi a drželi je mimo možnosti dělat velké škody. Naše schopnost ovládat inteligentní stroje je bohužel velmi podezřelá.
I když nejsou o moc chytřejší, než jsme my, existuje možnost pro stroj “bootstrap” - sbírat lepší hardware nebo vylepšovat vlastní kód, díky němuž je ještě chytřejší. To by mohlo umožnit stroji přeskočit lidskou inteligenci o mnoho řádů velikosti a vyrazit lidi ve stejném smyslu, jaký lidé překonávají kočky. Tento scénář poprvé navrhl muž jménem I. J. Good, který pracoval na projektu Enigma kryptoanalýzy s Alanem Turingem během druhé světové války. Nazval to “Intelligence Explosion,” a popsali záležitost takto:
Ať je ultrainteligentní stroj definován jako stroj, který může daleko předčit všechny intelektuální činnosti jakéhokoli člověka, byť chytrého. Protože konstrukce strojů je jednou z těchto intelektuálních činností, mohl by ultrainteligentní stroj navrhnout ještě lepší stroje; tam by pak bylo nepochybně “exploze inteligence,” a inteligence člověka by zůstala pozadu. První ultrainteligentní stroj je tedy posledním vynálezem, který člověk kdy potřeboval, za předpokladu, že stroj je dostatečně učenlivý.
Není zaručeno, že v našem vesmíru je možná exploze inteligence, ale zdá se to pravděpodobné. Postupem času se počítače rychlejší a základní informace o budování inteligence. To znamená, že požadavek na zdroje, aby se tento poslední skok na obecný, zesílení inteligence klesat nižší a nižší. V určitém okamžiku se ocitneme ve světě, ve kterém miliony lidí mohou zajet k Best Buy a vyzvednout si hardwarovou a technickou literaturu, kterou potřebují k vybudování samočinně se zlepšující umělé inteligence, kterou jsme již zavedli. velmi nebezpečné. Představte si svět, ve kterém byste mohli vyrobit atomové bomby z tyčinek a skal. To je taková budoucnost, o které diskutujeme.
A pokud stroj provede tento skok, mohl by velmi rychle překonat lidský druh, pokud jde o intelektuální produktivitu, vyřešit problémy, které miliarda lidí nemůže vyřešit, stejným způsobem, že lidé mohou vyřešit problémy, které může miliarda koček ' t.
Mohlo by to vyvinout výkonné roboty (nebo bio nebo nanotechnologie) a relativně rychle získat schopnost přetvořit svět podle jeho potěšení, a bylo by s tím jen velmi málo, co bychom mohli udělat. Taková inteligence by mohla bez většího problému zbavit Zemi a zbytku sluneční soustavy náhradní díly na cestě k tomu, co jsme jí řekli. Zdá se pravděpodobné, že takový vývoj bude pro lidstvo katastrofický. Umělá inteligence nemusí být škodlivá, aby zničila svět, pouze katastrofálně lhostejná.
Jak říká rčení, “Stroj vás nemiluje ani nenávidí, ale jste vyrobeni z atomů, které může použít pro jiné věci.”
Hodnocení a zmírňování rizik
Pokud tedy připustíme, že navrhování výkonné umělé inteligence, která maximalizuje jednoduchou užitkovou funkci, je špatné, v jakých problémech jsme skutečně? Jak dlouho jsme dostali, než bude možné postavit tyto druhy strojů? Je to samozřejmě těžké říct.
Vývojáři umělé inteligence dosahují pokroku. 7 úžasných webových stránek vidět nejnovější v programování umělé inteligence 7 úžasných webových stránek vidět nejnovější v programování umělé inteligence Umělá inteligence ještě není HAL z roku 2001: Space Odyssey ... ale dostáváme se strašně blízko. Jistě, jednoho dne by to mohlo být podobné jako sci-fi potboilery, které vytrhává Hollywood ... Stroje, které vyrábíme, a problémy, které mohou vyřešit, neustále rostou. V roce 1997 mohla Deep Blue hrát šachy na úrovni vyšší než lidský velmistr. V roce 2011 dokázala společnost IBM Watson číst a syntetizovat dostatek informací hluboce a dostatečně rychle, aby porazila ty nejlepší lidské hráče v otevřené otázce a odpovědi, která byla plná slovních hříček a slovních hříchů - což je za čtrnáct let hodně pokroku.
V současné době Google značně investuje do výzkumu hlubokého učení, což je technika, která umožňuje výstavbu výkonných neuronových sítí vytvářením řetězců jednodušších neuronových sítí. Tato investice jí umožňuje dosáhnout vážného pokroku v rozpoznávání řeči a obrazu. Jejich poslední akvizicí v této oblasti je startup Deep Learning s názvem DeepMind, za který zaplatili přibližně 400 milionů dolarů. V rámci smluvních podmínek se společnost Google dohodla na vytvoření etické rady, která zajistí, že jejich technologie AI bude vyvinuta bezpečně.
Současně IBM vyvíjí systémy Watson 2.0 a 3.0, systémy, které jsou schopné zpracovávat obrázky a video a hájit závěry. Poskytli jednoduché, rané demo Watsonovy schopnosti syntetizovat argumenty pro a proti tématu ve videu demo níže. Výsledky jsou nedokonalé, ale působivý krok bez ohledu na to.
Žádná z těchto technologií není sama o sobě nebezpečná: umělá inteligence jako pole stále zápasí s schopnostmi ovládanými malými dětmi. Počítačové programování a návrh umělé inteligence je velmi obtížná kognitivní dovednost na vysoké úrovni a pravděpodobně bude posledním lidským úkolem, na který se stroje stanou zdatnými. Než se dostaneme k tomuto bodu, budeme mít také všudypřítomné stroje, které dokážou řídit. Zde je návod, jak se dostaneme do světa naplněného auty bez řidiče. Zde je návod, jak se dostaneme do světa naplněného auty bez řidiče. Řízení je zdlouhavé, nebezpečné, a náročný úkol. Mohl by to být jednoho dne automatizován technologií automobilů Google bez řidičů? , praktikujte medicínu a právo a pravděpodobně i další věci, které mají hluboké ekonomické důsledky.
Čas, který nám bude trvat, než se dostaneme do inflexního bodu sebezdokonalování, závisí pouze na tom, jak rychle máme dobré nápady. Předpovídání technologického pokroku těchto druhů je notoricky těžké. Nezdá se být nepřiměřené, že bychom mohli být schopni vybudovat silnou umělou inteligenci za dvacet let, ale také se nezdá nepřiměřené, že by to mohlo trvat osmdesát let. Ať tak či onak, stane se to nakonec, a existuje důvod se domnívat, že když se to stane, bude to nesmírně nebezpečné.
Pokud tedy přijmeme, že to bude problém, co s tím můžeme dělat? Odpověď je zajistit, aby první inteligentní stroje byly bezpečné, aby mohly zavádět až do značné úrovně inteligence, a pak nás chránit před nebezpečnými stroji vyrobenými později. Tato „bezpečnost“ je definována sdílením lidských hodnot a ochotou chránit a pomáhat lidstvu.
Protože si vlastně nemůžeme sednout a naprogramovat lidské hodnoty do stroje, bude pravděpodobně nutné navrhnout obslužnou funkci, která vyžaduje, aby stroj pozoroval lidi, odvodil naše hodnoty a zkusil je maximalizovat. Aby byl tento proces vývoje bezpečný, může být také užitečné vyvinout umělé inteligence, které jsou speciálně navrženy ne mít preference ohledně jejich obslužných funkcí, což nám umožňuje je opravit nebo vypnout bez odporu, pokud se začnou během vývoje zablokovat.
Mnoho problémů, které musíme vyřešit, abychom vytvořili bezpečnou strojovou inteligenci, je matematicky obtížné, ale existuje důvod se domnívat, že je lze vyřešit. Na tomto problému se podílí řada různých organizací, včetně Institutu budoucnosti lidstva v Oxfordu a Institutu strojového zpravodajství (který Peter Thiel financuje).
MIRI se zajímá konkrétně o vývoj matematiky potřebné k vytvoření Friendly AI. Pokud se ukáže, že je možné zavést umělou inteligenci, pak může být vývoj této technologie „přátelské AI“ nejprve úspěšný, pokud bude úspěšný, a nakonec to bude nejdůležitější věc, kterou lidé kdy udělali..
Myslíte si, že umělá inteligence je nebezpečná?? Zajímá vás, co by mohla přinést budoucnost umělé inteligence? Sdílejte své myšlenky v sekci komentářů níže!
Obrazové kredity: Lwp Kommunikáció Via Flickr, “Nervová síť“, od fdecomitu,” img_7801“, od Steve Rainwater, “Rozvíjet se”, od Keoni Cabral, “new_20x“, Robert Cudmore, “Sponky“, Clifford Wallace