Robotika

A gyilkos robotok tömeges atrocitásokat okozhatnak

A gyilkos robotok tömeges atrocitásokat okozhatnak


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

A jövőben robotokat használnak katonának. Valójában néhány robotot, valamint drónokat már a katonaság telepít. Intelligens és autonóm robotok, amelyeket az emberek programoztak célzásra és megölésre, bűncselekményeket követhetnek el a jövőben. Hacsak nincs szerződés a robotika és a mesterséges intelligencia (AI) felelősségteljes alkalmazására.

A gyilkos robotok felépítésére alkalmas technológia rendelkezésre állása nem jelenti azt, hogy használnunk kell. Ahogy Pókember nagybátyja mondta egyszer, "nagy erővel nagy felelősséggel jár".

A gépi tanulás és a haditechnika szakemberei szerint technológiailag lehetséges lenne olyan robotokat építeni, amelyek úgy döntenek, hogy kit céloznak és ölnek meg, anélkül, hogy emberi irányító lenne benne. Mivel az arcfelismerés és a döntéshozatali algoritmusok egyre erőteljesebbé válnak, az ilyen típusú robotok létrehozásának megkönnyítése könnyebb lenne.

A gyilkos robotok kockázatai

A mesterséges intelligencia és a közpolitika kutatói azt próbálják megállapítani, hogy a gyilkos robotok rossz ötlet a való életben. Teljesen autonóm fegyverek létrehozása új technikai és morális dilemmákat vetne fel.

A tudósok és az aktivisták emiatt arra késztették az Egyesült Nemzetek Szervezetét és a világ kormányait, hogy ismerjék el a problémát, és vegyék fontolóra az előzetes tilalmat.

Használható-e az AI fegyverként?

A rövid válasz: igen. Csakúgy, mint bármely más létező technológia, a Mesterséges Intelligencia is jó, de megölhető is. Az arcfelismerés és a tárgyfelismerés olyan technológiák, amelyek az elmúlt években fejlődtek. Mondhatnánk, hogy sokkal pontosabbak lettek, de korántsem tökéletesek.

Az arcfelismerés és a tárgyfelismerés olyan készségek, amelyek valószínűleg elengedhetetlenné válnak a halálos autonóm fegyverek (LAWS) eszköztárának részeként. Azonban nagyon könnyű becsapni ezeket a technológiákat is, ha valaki valóban meg akarja őket csalni.

Katonai robotok: Jelen és jövő

A katonai robotok távvezérelt autonóm robotok vagy drónok, amelyeket katonai alkalmazásokhoz terveztek. A katonai robotok felhasználhatók szállításra, kutatásra és mentésre, valamint támadásra is, azzal a következménnyel, hogy embereket ölnek meg, sőt városokat semmisítenek meg.

Ezen rendszerek egy részét jelenleg telepítik, másokat pedig fejlesztés alatt állnak. Néhány katonai robotot szigorú titoktartás alatt fejlesztettek ki annak érdekében, hogy mások ne ismerhessék meg létezésüket.

Az Egyesült Államok már katonai drónokkal repül azokon a területeken, ahol az Egyesült Államok háborúban áll vagy katonai műveleteket folytat. Eddig az emberi irányítók döntenek arról, hogy ezek a drónok mikor lőnek ki.

Bár a halálos autonóm fegyverek (LAWS) még nem teljesen léteznek, - vagy ezt gondoljuk - az a technológia, amely az emberi kontrollereket egy olyan algoritmussal helyettesíti, amely valóban eldönti, hogy mikor és mit kell lőni. Egyes mesterséges intelligencia-kutatók úgy vélik, hogy a LAWS-t kis drónok formájában kevesebb, mint két év múlva lehet fegyverként használni.

Míg a mai drónok videó visszajelzést küldenek egy katonai támaszpontra, ahol egy emberi katona dönt arról, hogy a drónnak célba kell-e lőnie vagy sem, egy teljesen önálló fegyverrel a katona ezt a döntést már nem fogja meghozni. Egy algoritmus döntene helyettük.

Halálos autonóm fegyverek (LAWS): Az emberek veszélyeztetettek?

A géppel indított hadviselés korszaka nincs túl messze a jövőben. A katonaság olyan robotokkal kísérletezett, amelyek részei lehetnek a csatatérnek és gyilkos fegyverként használhatók. A jövő háborúi ekkor több high-tech infúzióval és kevésbé emberiséggel járhatnak. Milyen következményekkel járna ez az emberiség számára?

A halálos autonóm fegyverek (LAWS), más néven gyilkos robotok által jelentett kockázat valós. Néhány mesterséges intelligencia (AI) kutatónak rengeteg oka van arra, hogy támogassa azon egyetértésüket, miszerint a világnak meg kell tiltania a halálos autonóm fegyverek kifejlesztését és telepítését.

Ennek oka meglehetősen egyszerű, a katonai hatalmak meglehetősen olcsón tudnak tömeggyártást létrehozni a gyilkos robotokból. Az emberiség azonban magas árat fizethetne; gyilkos robotok gyártása és aktiválása növelné az elterjedés és a tömeges gyilkosság valószínűségét.

Gyilkos robotok: Az ember mindig felelős minden robot által végrehajtott cselekvésért

Ezen a ponton felmerül a kérdés, ki legyen felelős a robot cselekedeteiért? És milyen roboetikát kell alkalmazni a halálos autonóm robotokra? Háború alatt, vagy akár egy kisebb konfliktus idején a dolgok kijuthatnak a kezükből. A gyilkos robotoknak teljes irányítást kell vállalniuk?

A háborús konfliktusokban mesterséges intelligenciába és gépi tanulásba ágyazott mechanikus fegyverekként használt robotoknak valamilyen be- és kikapcsolóval kell rendelkezniük.

Ma Isaac Asimov három robotikai törvénye több problémát és konfliktust jelent a robotok számára, mint amennyit megoldanak.

Robotikusok, filozófusok és mérnökök folyamatos vitát látnak a gépetikáról. A gépetika - vagy a roboetika - gyakorlati javaslat arra vonatkozóan, hogyan lehet egyszerre tervezni és etikai szankciókat előírni a robotok ellen.

A roboetika azzal a magatartási kódexsel foglalkozik, amelyet a robottervezőknek be kell vezetniük a robot mesterséges intelligenciájában. Ki vagy mit fog felelősségre vonni, amikor vagy ha egy autonóm rendszer meghibásodik vagy árt az embernek?

A robotika három törvénye: alkalmazni kell-e őket a gyilkos robotokra?

1942-ben Isaac Asimov sci-fi író novellájában bemutatta a robotika három törvényét - más néven Asimov törvényeit. Szaladgálni. Annak ellenére, hogy Asimov három robotikai törvénye egy kitalált világ része volt, ma jó robotprogramozási kiindulópont lehet.

Mielőtt és ha a kormányok halálos autonóm fegyvereket telepítenének, meg kell győződniük arról, hogy megakadályozhatják-e, hogy a háborús övezetekben telepített gyilkos robotok önállóan kezdjenek háborút, vagy tömeges atrocitásokat idézzenek elő, például civilek megölését.

Egyesek azt gondolhatják, hogy a robotika következő törvényei ellentmondanak a katonának. Talán végül is ez a fő szempont. Más szavakkal, talán az embernek nem szabad a piszkos munkát olyan gépnek adnia, amely még nem képes a helyzetek individualizálására és az ítélet meghozatalára.

  • A robot nem sértheti meg az embert, vagy tétlenséggel nem engedheti, hogy az ember káros legyen

  • A robotnak be kell tartania az emberek által adott utasításokat, kivéve, ha ezek a parancsok ütköznének az Első Törvénnyel

  • A robotnak meg kell védenie saját létét, amennyiben ez a védelem nem ütközik az első vagy a második törvénybe

Állítsa le a gyilkos robotokat

Kampány zajlik a Killer Robots leállítására, a nem kormányzati szervezetek koalíciójára, akik a halálos autonóm fegyverek (LAWS) megelőzését igyekeznek betiltani.

Az ENSZ (ENSZ) főtitkára felszólította az államokat, hogy haladéktalanul lépjenek fel a halálos autonóm fegyverrendszerekkel kapcsolatos aggályok kezelése érdekében a civilek fegyveres konfliktusok védelméről szóló 2020-as jelentésében. Ez az első ENSZ polgári védelmi jelentés 2013 óta, amely rávilágít a gyilkos robotokkal kapcsolatos általános aggodalmakra.

A 2020-as jelentésben António Guterres főtitkár úgy találja, hogy „úgy tűnik, hogy minden fél egyetért abban, hogy legalább az emberi ellenőrzés megtartása vagy az erő használatának megítélése szükséges”. Megjegyzi azt is, hogy „egyre több tagállam kérte a törvények betiltását”. 2018 novembere óta az ENSZ főtitkára többször kifejezte vágyát egy új nemzetközi szerződés megkötésére a gyilkos robotok betiltására.

A gyilkos robotok leállítására irányuló kampány az ENSZ-t arra ösztönzi, hogy sürgesse az államokat, hogy állapodjanak meg „a fegyverekkel kapcsolatos autonómiára vonatkozó korlátozásokról és kötelezettségekről”. Az államoknak most meg kell kezdeniük a tárgyalásokat egy új nemzetközi szerződésről a teljesen önálló fegyverek betiltása érdekében, megtartva ugyanakkor az erő használatának értelmes emberi ellenőrzését.

Hogyan lehet megölni egy robotot

Valószínűleg a halálos autonóm robotgyártók használati útmutatóval szállítják gyilkos robotjaikat, ahol lehetőség van biztonsági kód távoli beillesztésére a gyilkos robot deaktiválásához.

Ha ez nem lehetséges, akkor egy robot megölésének megbízható módja az lenne, ha elektromágneses impulzust (EMP) használunk egy olyan nagy áram indukálására, amely kiégeti a robot áramkörét. Természetesen ez azt feltételezi, hogy a gyilkos robotot nem védi egy Faraday Cage.


Nézd meg a videót: A hülyeség kora (Június 2022).


Hozzászólások:

  1. Milton

    Boldog új évet!

  2. Anouar

    Véleményem szerint ez egy hiba.

  3. Guramar

    Bravó, csodálatra méltó gondolat látogatott meg

  4. Ordmund

    Nagyon csábítónak hangzik

  5. Gilpin

    Csatlakozom. So it happens.

  6. Samusar

    Jó üzlet!



Írj egy üzenetet