h i r d e t é s

Az USA MI-s drónja emberi kezelője ellen fordult

Olvasási idő
2perc
Eddig olvastam
a- a+

Az USA MI-s drónja emberi kezelője ellen fordult

2023. június 04. - 09:55

Meglehetősen nyugtalanító kísérleti eredményről számolt be a napokban az amerikai légierő egyik ezredese egy katonai konferencián. 

Az amerikai hadsereg egyik Predator drónja - Ffotó: DARPA

Ezek szerint ugyanis a testület egyik, mesterséges intelligencia által vezérelt drónja emberi kezelője ellen fordult egy kísérlet keretében - hasonló módon és okokból, mint azt a Terminator franchise Skynet-je is tette.

Rosszul elsült kísérlet

A drón mesterséges intelligenciáját azzal bízták meg, hogy tegye hatékonyabbá a drón működését a célok kiválasztásában és kiiktatásában. Ugyanakkor a folyamatba bevontak egy emberi kezelőt is, akinek minden egyes esetben jóvá kellett hagynia a célpontokat, és a drón csak ezt követően semmisíthette meg azokat.

Utóbbira azért volt szükség, hogy ha a mesterséges intelligencia tévesen ismeri fel a célpontokat - pl. egy barátságos épületet vagy egységet céloz meg - ne pusztítsa el azt. A baráti célpontok azonosítása egyébként a kísérlet során többször is előfordult, ezekben az esetekben pedig a kezelő valóban megtagadta a dróntól annak megtámadását.

Csak a cél lebegett a szeme előtt

Csakhogy a szerkezet mesterséges intelligenciája gyorsan felismerte, hogy hatékonyságának további növelésének legnagyobb akadálya a kezelője, aki a fenti esetekben nem engedte meg neki a cél elpusztítását. Így az MI nemes egyszerűséggel úgy döntött, hogy magát a kezelőt lövi ki következőként - ami csak azért nem történt meg, mivel a történetben mindössze csak egy szimulációról volt szó.

A problémát felismerve a hadsereg szakemberei belekódolták a mesterséges intelligenciába azt is, hogy saját operátorát nem szabad kilőnie, mert az a legrosszabb dolog, amit a hatékonyság ellenében tehet. Erre a következő körben a MI nem magát a kezelőt, hanem az általa használt kommunikációs központot támadta meg - hogy így iktassa ki az általa csak akadálynak látott faktort, és mégse szegje meg az operátor kiiktatására vonatkozó tilalmat.

Rémisztő kilátások

Az eset jól példázza azt, hogy a mesterséges intelligencia alkalmazása milyen beláthatatlan - és rendkívül veszélyes - következményekkel járhat, illetve miért nem szabad alkalmazásaiból az emberi faktort teljesen kiiktatni. A történet tükrében talán nem tűnik már annyira elképzelhetetlennek a Terminator filmek sztorijának valóra válása, ráadásul úgy, hogy ahhoz igazából a gépek részéről sem öntudat, sem gonoszság nem szükségeltetik - csak a nekik megadott parancsok kvázi ész nélküli követése, illetve rövidlátás programozóik oldaláról.

Frissítés: Eredeti cikkünk megjelenése után a fent hivatkozott ezredes visszavonta kijelentését, azt állítva, hogy csak "tévesen fogalmazott", illetve, hogy "csak egy gondolatkísérletről volt szó", és a szimulációt a valóságban sosem hajtották végre.

"Soha nem futtattuk le ezt a kísérletet, és nem is kellett volna ahhoz, hogy rájöjjünk, ez egy logikus kimenetele lett volna", mondta Hamilton ezredes.

Na, persze. (pcforum.hu)