2018. október 21., vasárnap
Orsolya

Külföld

Terroristák is használhatják a mesterséges intelligenciát

A mesterséges intelligencia (AI) alkalmazásának gyors előretörése növeli a kockázatát annak, hogy a technológiát rossz célra: automatikus hackertámadásokra, önvezető autók balesetének előidézésére, a kereskedelemben kapható drónok célzott fegyverként való alkalmazására használják fel – figyelmeztetett egy nemzetközi kutatócsoport.

Tizennégy intézmény, köztük a Cambridge-i, Oxfordi és Yale Egyetem 26 kutatója szerdán nyilvánosságra hozott tanulmányában aggodalmának adott hangot amiatt, hogy autoriter államok, bűnözők és magányos támadók visszaélhetnek az új technológiával.


Az AI rossz célú használata küszöbön álló veszélyt jelent a digitális, fizikai és politikai biztonságra, mivel lehetővé teszi a nagyméretű, pontosan célzott, nagy hatékonyságú támadásokat – írták tanulmányukban, amelyben a következő öt évben valószínűsíthető fejleményekre összpontosítottak.

“Valamennyien egyetértünk abban, hogy a mesterséges intelligenciának sok pozitív alkalmazási lehetősége van. A szakirodalom azonban hiányos annak rossz célú felhasználásáról” – magyarázta Miles Brundage, az Oxfordi Egyetem emberiség jövőjét kutató intézetének szakembere.


A mesterséges intelligencia számítógép használatával hajt végre olyan emberi intelligenciát igénylő feladatokat, mint a döntéshozatal, szöveg, beszéd vagy vizuális képek felismerése. A technikai lehetőségek tárházát nyitja meg, de heves vitákat váltott ki az elmúlt években arról, hogy az általa megvalósítható tömeges automatizálás jelentősen növelheti-e a munkanélküliséget és más szociális hátrányokat.

A mintegy százoldalas tanulmány felhívta a figyelmet arra, hogy az AI alkalmazása csökkentheti a végrehajtott támadások költségeit emberi munkát, szakértelmet igénylő esetekben. Olyan új támadási formák kerülhetnek felszínre, amelyek eddig egyetlen ember által kivitelezhetetlenek voltak, vagy olyan támadási formák, amelyek kihasználják magának a mesterséges intelligenciának a sérülékenységét.

A dokumentum szerint teljesen újszerű, egyebek között beszédszintetizálásra és a közösségi médiában fellelhető információk elemzésével végzett célzott – adathalász – phishing-akciókra, automatizált számítógép-feltörési támadásokra lehet számítani.

A drónok, önjáró járművek és egyéb elektronikus berendezések felhasználásával fizikai támadást lehet intézni emberek és intézmények ellen. Egy arcfelismerő funkcióval ellátott és egyébként teljesen veszélytelennek tűnő takarítógép például fel tudja robbantani magát a célszemély közelében. A lehetőségeknek csak a fantázia szab határt.

A tanulmány készítői áttekintették az eddigi tudományos kutatásokat az AI jelentette biztonsági kockázatokról, és együttműködésre szólították fel a kormányokat, politikai és műszaki szakembereket ezen veszélyek elhárítására.

A teljes tanulmány a https://maliciousaireport.com/ honlapon olvasható.

Kapcsolódó Cikkek