Velké zbraně AI slibují, že nebudou rozvíjet autonomní "zabijáky"

Anonim

Velké zbraně AI slibují, že nebudou rozvíjet autonomní "zabijáky"

Robotika

Michael Irving

25. července 2018

Stovky společností a tisíce lidí z průmyslu AI se zavázaly, že nebudou rozvíjet smrtící autonomní zbraně (Credit: chagpg / Depositphotos)

Myšlenka zabijáckých robotů v současné době zůstává v oblasti sci-fi, ale je to docela alarmující, že si uvědomíme, že odborníci na umělou inteligenci se s nimi v blízké budoucnosti zajímají jako o opravdové možnosti. Po letech podání petice Spojeným národům, aby podnikli kroky proti zbraňovému AI, nyní institut Future of Life (FLI) přijal záležitosti do svých rukou, přičemž tisíce výzkumníků, inženýrů a firem v průmyslu AI se zavázaly, že nebudou rozvíjet ani podporovat rozvoj autonomních vražedných strojů jakýmkoli způsobem.

V roce 2015 představil FLI otevřený dopis OSN, v němž vyzval organizaci, aby zakázala vývoj smrtících autonomních zbrojních systémů (LAWS). Dopis byl podepsán více než 1000 výzkumníky robotiky a významnými vědci, jako jsou Elon Musk a Stephen Hawking. O dva roky později FLI a mnoho stejných signatářů vyslali pokračování, protože rozhovory se neustále zastavovaly.

Po dalším roce nečinnosti vedoucí představitelé průmyslu nyní přijali přímější přístup, který nevyžaduje vstup OSN. Tisíce lidí nyní podepsalo slib, v němž prohlásil, že "se rozhodneme udržet se na vysokém standardu: nebudeme se podílet ani podporovat vývoj, výrobu, obchod nebo používání smrtonosných autonomních zbraní."

Signatáři tentokrát zahrnují 160 společností a organizací souvisejících s AI a více než 2400 osob. Mezi pozice patří Google DeepMind, ClearPath Robotics, Evropská asociace pro AI, Nadace XPRIZE, Silicon Valley Robotics, Univerzitní vysoká škola v Londýně a lidé jako Elon Musk, Jeffrey Dean od společnosti Google Research a člen britského parlamentu Alex Sobel.

Konkrétní technologie, proti nimž skupina oponuje, zahrnuje zbrojní systémy AI, které dokáží identifikovat, cílit a zabíjet lidi zcela autonomně. To by nemělo zahrnovat věci jako vojenské drony, které mohou lidské piloty použít k tomu, aby identifikovali a zabili cíle na dálku. Zatímco to může znít jako podivné rozlišování, skupina tvrdí, že druhý případ má stále člověka "ve smyčce", jako morální a etický filtr pro tento čin.

"My, níže podepsaní, souhlasíme s tím, že rozhodnutí o životě člověka by nikdy nemělo být přeneseno na stroj, " čte oficiální prohlášení. "Na tuto pozici je morální složka, že bychom neměli dovolit strojům, aby rozhodovali o životě, pro něž budou ostatní - nebo nikdo - nebudou vinit."

Když jsou tyto vražedné stroje propojeny s datovými a dohledovými platformami, pokračuje prohlášení, zákony by se mohly stát silnými nástroji násilí a útlaku, což v podstatě znamená příliš snadné, bezrizikové a nezodpovědné jednání s lidskými životy. Zvláště problematické je potenciál těchto zařízení spadat do špatných rukou prostřednictvím černého trhu.

Cílem slibu, zdá se, je "hanbovat" společnosti a lidi, aby podepsali smlouvu. Pokud stále více a více hráčů skáče na palubu, ty, které nebudou pravděpodobně pod kontrolou jejich vrstevníků a zákazníků, dokud se také nepřihlásí.

Ať už se to děje nebo ne, je to alespoň povzbudivé vidět, jak se dělají kroky dítěte směrem k cíli vraždy bez robotů. Organizace spojených národů bude mít v srpnu příští schůzi v zákoně.

Zdroj: Institut budoucnosti života

Stovky společností a tisíce lidí z průmyslu AI se zavázaly, že nebudou rozvíjet smrtící autonomní zbraně (Credit: chagpg / Depositphotos)