Anticipatia.com

Foresight ROBOETIC (V) - Crime de razboi fara vinovati

Sunday, 10 February 2013 17:10
Pentagonul are în vedere dezvoltarea unor soldați roboți-etici, spre deosebire de ucigașii T-800 fără discernământ imaginați în seria de filme Terminator.

Nu numai Noel Sharkey este preocupat de riscurile cu privire la utilizarea, proiectarea, construirea si comercializarea armelor robotizate și de întârzierea din gândirea politică privitoare la fabricarea și utilizarea lor.

Problema posibilității de eroare este ridicată și de către Andrew Brown, scriitor şi jurnalist în “The Guardian”. Brown pune un accent puternic pe problemă de- responsabilizării statelor implicate. 

Punând accent pe conceptul de inteligență artificială ostil, alături de problema liberului arbitru şi a conştiinţei, Brown avertizează că statutul special al robotului nu este ușor de definit: nu este o ființă simțitoare capabilă de discernământ moral, dar nu este nici un simplu obiect controlat de om: are un scop și-l exercită, fără să fie conştient că-l exercită.
Acest lucru este valabil și pentru așa-numitele bombe inteligente (ce care se ghidează urmărind căldură şi GPS). "Rachete, un lucru neînsufleţit, mort dar, în același timp, animat de un scop ostil, încalcă unele așteptări primitive privind modul în care funcționează lumea. De aceea provoacă frică.” (Andrew Brown)
Brown ridică problema statutului moral al robotului, al indivizilor implicaţi în construirea lor, a statelor care dispun de aceste masini-robot militare, precum şi a statelor care le achiziţionează în vederea folosirii lor. 
Respinge ideea a ceea ce el numeşte “protagoniştii Inteligenţei Artificiale extreme” pentru care robotul trebuie să fie luat în considerare şi tratat precum orice fiinţă umană, din momentul în care comportamentul său este imposibil de distins de cel al unei fiinţe umane (faimosul test Turing fiind depăşit).
Propune, prin urmare, o altă problemă etică legată nu atât de mult de obtuzitate, cât de o eventuală “nebunie” a soldatului –robot. El se întreabă ce s-ar întâmpla dacă robotul încălca intenția programatorilor începând “să tragă în toate persoanele care se găsesc sub o anumită dimensione; sau ce se întâmplă dacă acesta începe să ofere dulciuri oricărui soldat înarmat cu un RPG (Rocket-propelled grenade)? Ar fi reprogramate sau eliminate. Dimpotrivă, un om ar suferi un proces, deoarece numai un om poate fi mustrat sau lăudat, nu o mașină."
Potrivit lui Brown, în prezența inteligenței artificiale ostile, există o problemă cu totul nou: am putea avea crime de război, fără posibilitatea de a identifica cu certitudine criminalii.

(va urma)

Brown, “War crimes and killer robots: the ethics of robots at war”, Guardian
Bianca Stan

Jocurile ascund viitorul. Studiază, creşti sau ieşi.

Analist, mediator intercultural - "Arcobaleno", publicistă de opininie a revistei "IL”, scriitor.

 

Login pentru a posta comentarii
You are now being logged in using your Facebook credentials