Přejít k obsahu | Přejít k hlavnímu menu

Hrozí nám od umělé inteligence nebezpečí? I robot může být terorista

Roboti, ilustrační foto
Roboti, ilustrační foto
Foto: Pixabay

Londýn - V příštích deseti letech by mohla zvyšující se efektivnost umělé inteligence posílit počítačovou kriminalitu a teroristé by mohli více využívat drony či roboty. Odborníci také zmiňují možnost snadnější manipulace voleb na sociálních sítích prostřednictvím takzvaných internetových botů, což jsou počítačové programy, které pro svého majitele opakovaně vykonávají nějaké rutinní činnosti.

Stostránkovou zprávu, která byla zveřejněna ve středu, napsalo 26 odborníků na umělou inteligenci, kyberzločiny a robotiku včetně expertů z univerzit (Cambridge, Oxford, Yale, Stanford) a z neziskového sektoru (společnosti jako OpenAI, Středisko pro novou americkou bezpečnost či Electronic Frontier Foundation).

Odborníci zmiňují některé "hypotetické možnosti" zneužití umělé inteligence. Teroristé by například mohli uzpůsobit systémy umělé inteligence používané třeba v dronech či samořiditelných dopravních prostředcích pro vyprovokování srážek a výbuchů. "Domníváme se, že útoky, které by snadnější přístup k umělé inteligenci mohl umožnit, budou obzvlášť účinné, přesně cílené a těžko odhalitelné," píše se ve zprávě.

Odborníci připomínají i možnost zneužití například úklidového robota v nějakém úřadu, který by se mohl dostal mezi jiné roboty, kteří připravují třeba jídlo. Takovýto robotí vetřelec by pak mohl pomocí výbušniny zaútočit na nějakého úředníka poté, co by jej identifikoval.

Podle jednoho z autorů zprávy a ředitele střediska z Cambridgeské univerzity Seána Ó hÉigeartaigha by se mohla "s větším zneužitím umělé inteligence zvýšit zejména počítačová kriminalita".

Větší záběr by mohly představovat i útoky pomocí tzv. spear phishingu, což je podvodná technika používaná na internetu k získávání citlivých údajů (útočník zasílá e-mail konkrétní osobě; pro tradiční phishing je typické rozeslání obrovského množství mailů).

Velké nebezpečí vidí Seán Ó hÉigeartaigh "v možném zneužití umělé inteligence v politice". "Již jsme zažili, jak se jednotlivci či skupiny snažili zasahovat pomocí internetu do demokratických voleb," připomíná a dodává: "Jestliže umělá inteligence umožní, aby byly tyto útoky silné, jednoduché na zopakování a složité na odhalení, mohlo by to znamenat velký problém pro politickou stabilitu."

Umělá inteligence by mohla sloužit třeba i k výrobě falešných a velmi realistických videí, která by pak mohla být použita k diskreditaci politických činitelů. Do rozvoje umělé inteligence by se mohly zapojit i některé autoritářské státy, které by pak mohly s její pomocí snadněji sledovat své občany.

"V současnosti ještě existuje rozdíl mezi rychlostí výzkumu a možnými aplikacemi novinek. Ještě je čas jednat," říká vědec z Oxfordské univerzity Miles Brundage. Právě na jeho pracovišti začala tato zpráva vznikat. "Na zmírnění těchto hrozeb by měli spolupracovat vědci na umělou inteligenci, vývojáři robotů a dronů i regulační orgány a politici," říká Seán Ó hÉigeartaigh,

Témata:  Roboti internet terorismus

Související

Aktuálně se děje

8:25

Tomáš Vartecký se jde léčit. Upřímná zpověď o velkých problémech

Loni to nebyla hudba, čím Tomáš Vartecký plnil stránky médií. A hudba to není ani na začátku letošního roku, kdy na sociálních sítích zveřejnil zásadní oznámení. Vartecký prozradil, že se potýká s velkými problémy, které si vynutily přerušení činnosti. Podle některých médií nastupuje do léčebny. 

Zdroj: Jiří Hrubý

Další zprávy

Mars

NASA možná našla důkazy o životě mimo Zemi. Nemá je ale jak dostat domů

NASA oznámila dvě nové strategie pro návrat vzorků z Marsu na Zemi, které by mohly být realizovány do 30. let 21. století. Tyto plány představují alternativy k původnímu programu Mars Sample Return, který NASA vyvinula ve spolupráci s Evropskou kosmickou agenturou (ESA). Původní plán byl shledán příliš složitým a drahým, s odhadovanými náklady až 11 miliard dolarů a návratem vzorků posunutým na rok 2040. Takové zpoždění označil šéf NASA Bill Nelson za nepřijatelné.