Trebuie făcută o distincție categorică și precisă între „utilizările acceptabile și cele inacceptabile ale AI”
În luna iulie a acestui an a avut loc la Stockholm, capitala și cel mai mare oraș din Suedia, un eveniment important, la care au participat cercetători, ingineri, oameni de știință din domeniul robotizării și al inteligenței artificiale (AI, Artificial Intelligence) și reprezentanți ai mai multor companii care desfășoaă activități în acest domeniu. După mulți ani în care și-au exprimat sub diverse forme preocuparea despre utilizarea armelor autonome letale, sute de companii și mii de personalități au luat, pentru prima dată, măsuri concrete. A fost semnat un angajament, cu putere de „legământ” (Lethal Autonomous Weapons Pledge), prin care au declarat ferm că nu-și vor folosi niciodată cunoștințele la crearea de echipamente sau dispozitive autonome de anihilare a oamenilor, de ucis sau de neutralizat personane, indiferent dacă sunt militari sau civili, că „nu vor participa și nu vor sprijini dezvoltarea, fabricarea sau utilizarea” acestor arme. La evenimentul organizat și coordonat de Institutul pentru Viitorul Vieții (Future of Life Institute1), FLI), o organizație non-profit cu sediul în Boston, Massachusetts, Statele Unite, aproximativ 160 de companii din 36 de țări și 2.400 de persoane din 90 de state au semnat angajamentul. Au declarat și au susținut, în unanimitate, că armele autonome reprezintă un „pericol clar și actual pentru cetățenii fiecărei țări din lume” (gizmodo.com). Printre companiile și organizațiile care și-au exprimat acest punct de vedere fac parte Google DeepMind, University College London (UCL), Fundația XPRIZE (Fundația Premiului X), ClearPath Robotics, Inc. (prin divizia OTTO Motors), Asociația europeană pentru AI (EurAI, European Association for Artificial Intelligence) și Swedish AI Society (SAIS). Dintre personalitățile mai cunoscute care au participat la eveniment și au semnat „promisiunea” poate fi evidențiat fondatorul Tesla și SpaceX, Elon Musk, care, în urmă cu un an, a făcut parte din grupul de 116 experți care au cerut Organizației Națiunilor Unite (ONU) să interzică mașinile automate letale, numindu-le „armele terorii”, și au transmis un avertisment „Odată ce această cutie a Pandorei va fi deschisă, va fi greu de închis”. Printre oamenii de știință semnatari ai angajamentului trebuie remarcată d-na Anca Drăgan2), profesor și cercetător la Universitatea Berkeley (University of California, Berkeley), de origine din România. S-au făcut mai multe afirmații importante, cu mare relevanță,
- „Inteligența artificială (AI) este pregătită să joace un rol din ce în ce mai important în sistemele militare”, sau
- „Există o oportunitate și o necesitate urgentă pentru cetățeni, pentru factorii de decizie și liderii politici să facă distincția între utilizările acceptabile și cele inacceptabile ale AI”.
Angajamentul a fost anunțat pe 18 iulie de Max Tegmark, președintele FLI, cu ocazia conferinței anuale IJCAI (International Joint Conference on Artificial Intelligence), care atrage peste 5.000 de cercetători AI din toată lumea. În acest an, organizatori ai IJCAI au fost, de asemenea, SAIS și EurAI, după cum se precizează pe site-ul futureoflife.org. Max Tegmark a declarat, „Sunt încântat să văd că liderii AI trec de la discuții la acțiuni, punând în aplicare o tactică pe care politicienii nu au reușit-o până acum. AI poate fi un ajutor uriaș pentru toată lumea, dacă este condamnat și prevenit abuzul. Armele care decid în mod autonom să ucidă sunt la fel de dezgustatoare și destabilizatoare ca armele biologice și ar trebui tratate în același mod”. Pe site-ul gizmodo.com se araată că, „În urma escaladării de către guvernul american a utilizării de drone militare, inginerii și oamenii de știință au avertizat că aparatele autonome vor fi vulnerabile pentru hackeri, că pot fi deturnate și folosite asupra oamenilor nevinovați, că va fi inevitabil și ușor ca cei rău-intenționați să le obțină și să le construiască pe cont propriu”. Pentru a ilustra amenințarea dronelor autonome, FLI a contribuit la realizarea unui videoclip (Roboți de sacrificiu), din care sunt prezentate mai jos câteva secvențe, unde se descrie cum sunt folosite dronele pentru a omorî oameni, prin identificare facială.
Ryan Gariepy, CEO al companiei Clearpath Robotics a declarat, „Nicio națiune nu va fi în siguranță, indiferent cât de puternică ar fi”, iar Jaan Tallin, co-fondator al Skype și membru FLI a spus, „În mod ironic, prin susținerea dezvoltării armelor autonome, puterile militare existente ar putea să predea capacitățile acestora unor actori instatali sau unor grupuri marginale” (gizmodo.com). Armele care nu au nevoie de un operator uman, adică armele autonome letale (LAWS3), Lethal Autonomous Weapons Systems) sunt „instrumentul perfect” pentru teroriști.
1) Institutul pentru Viitorul Vieții (Future of Life Institute, FLI) este o organizație de voluntari, cu sediul în Boston, care lucrează pentru atenuarea riscurilor cu care se confruntă omenirea, în special riscul care poate apare prin utilizarea în scopuri ilegale sau imorale a Inteligenței Artificiale (AI). Printre fondatorii FLI sunt, cosmologul Max Erik Tegmark, născut la Stockholm, în prezent profesor la MIT (Massachusetts Institute of Technology), și co-fondatorul companiei Bluemoon și participant la crearea aplicației Skype, Jaan Tallinn. Dintre consilieri trebuie amintiți antreprenorul Elon Musk, proprietarul Tesla și SpaceX, și cosmologul Stephen Hawking, până la decesul din martie 2018. Misiunea FLI este „de a cataliza și de a susține cercetarea și inițiativele pentru protejarea vieții și dezvoltarea de viziuni optimiste pentru viitor, inclusiv a modalităților de orientare a omenirii în funcție de noile tehnologii și provocări”.
2) Românca Anca Drăgan este, la mai puțin de 30 de ani, doctor în robotică în Statele Unite, la Universitatea Berkeley. A învățat la Brăila, iar acum este cercetător și profesor la UC (University of California) Berkeley. „Domnia sa vorbește despre roboți care vor cuceri lumea, despre inovație, competitivitate la cel mai înalt nivel, despre ambiție și responsabilitate, despre ce are sistemul de învățământ din România și nu au altele din lume, despre ce au de învățat românii de la americani și despre faptul că și-a găsit locul, dar că acest deziderat a fost obținut prin foarte multă muncă și studiu”.
Într-o declarație pentru site-ul people.eecs.berkeley.edu Anca Drăgan spune, printre altele, „Obiectivul meu este acela de a permite roboților să lucreze cu, în jurul și în sprijinul oamenilor. Conduc laboratorul InterACT, unde lucrăm la diferite aplicații, de la roboți umanoizi la autoturisme autonome”.
3) Sistemele de arme autonome letale (Lethal autonomous weapons systems, LAWS) sunt arme care pot identifica, pot ținti și pot ucide o persoană fără a fi dirijată de om, ceea ce înseamnă că nu un om ia decizia finală de a autoriza forța letală. Decizia și autorizarea dacă cineva va fi ucis sau nu, revine sistemului autonom. Aici nu sunt incluse dronele de astăzi, care sunt sub controlul omului și, în plus, nu sunt incluse sistemele autonome care se apără împotriva altor arme („letal” presupune uciderea unui om), după cum se arată pe site-ul futureoflife.org.