Τρίτη, 28 Ιουλίου 2015

Η απειλή της αυτόνομης στρατιωτικής Τεχνητής Νοημοσύνης: 1.000 ειδικοί προειδοποιούν για το «Καλάσνικοφ του μέλλοντος»

TERMINATOR
Αναπόφευκτη χαρακτηρίζουν την απειλή μιας μελλοντικής κούρσας ρομποτικών εξοπλισμών τεχνητής νοημοσύνης 1.000 ακαδημαϊκοί, ερευνητές αλλά και δημόσια πρόσωπα- μεταξύ των οποίων ο Στίβεν Χόκινγκ και ο Έλον Μασκ, καθώς και ο Στιβ Βόσνιακ, συνιδρυτής της Apple, αλλά και ο Ντέμης Χασάμπης, της Google DeepMind.
Η άποψη αυτή εκφράζεται σε ανοικτή επιστολή που παρουσιάστηκε στην International Joint Conference on Artificial Intelligence στο Μπουένος Άιρες. Τιτλοφορείται «Autonomous Weapons: an Open Letter from AI & Robotics Researchers» (Αυτόνομα Όπλα: μια ανοικτή επιστολή από ερευνητές Τεχνητής Νοημοσύνης και Ρομποτικής).

«Τα αυτόνομα όπλα επιλέγουν και εμπλέκουν στόχους χωρίς ανθρώπινη παρέμβαση. Μπορεί να περιλαμβάνουν, για παράδειγμα, οπλισμένα quadcopters τα οποία μπορούν να ψάχνουν και να εξοντώνουν ανθρώπους που πληρούν κάποια προκαθορισμένα κριτήρια, αλλά δεν περιλαμβάνουν πυραύλους cruise ή τηλεχειριζόμενα drones για τα οποία οι άνθρωποι λαμβάνουν όλες τις αποφάσεις σκόπευσης. Η τεχνολογία Τεχνητής Νοημοσύνης (ΑΙ) έχει φτάσει σε ένα σημείο όπου η ανάπτυξη τέτοιων συστημάτων είναι – πρακτικά, αν όχι από νομικής πλευράς- εφικτή εντός ετών, όχι δεκαετιών, και διακυβεύονται πολλά: Τα αυτόνομα όπλα έχουν περιγραφεί ως η τρίτη επανάσταση στον πόλεμο, μετά την πυρίτιδα και τα πυρηνικά όπλα».
cylons
«Πολλά έχουν ειπωθεί τόσο υπέρ όσο και κατά των αυτόνομων όπλων, για παράδειγμα ότι η αντικατάσταση των ανθρώπων στρατιωτών από μηχανές είναι καλή, καθώς μειώνει τις απώλειες για την πλευρά τους, αλλά κακή, από την άποψη ότι “χαμηλώνει τον πήχυ” όσον αφορά στην καταφυγή σε ένοπλη σύγκρουση. Η ερώτηση- κλειδί για την ανθρωπότητα σήμερα είναι εάν πρόκειται να αρχίσει μία παγκόσμια κούρσα εξοπλισμών τεχνητής νοημοσύνης ή αν θα την εμποδίσει να αρχίσει. Εάν οποιαδήποτε μεγάλη στρατιωτική δύναμη προχωρήσει στην ανάπτυξη όπλων τεχνητής νοημοσύνης, μία παγκόσμια κούρσα εξοπλισμών είναι πρακτικά αναπόφευκτη, και η κατάληξη αυτής της τεχνολογικής “τροχιάς” είναι προφανής: τα αυτόνομα όπλα θα γίνουν τα Καλάσνικοφ του αύριο. Αντίθετα με τα πυρηνικά όπλα, δεν απαιτούν ακριβά, ή δύσκολο να αποκτηθούν υλικά, οπότε θα καταστούν πανταχού παρόντα και φθηνά για όλες τις σημαντικές στρατιωτικές δυνάμεις όσον αφορά στη μαζική παραγωγή τους. Θα είναι απλά θέμα χρόνου η εμφάνισή τους στη μαύρη αγορά και στα χέρια τρομοκρατών, δικτατόρων που θέλουν να ελέγχουν καλύτερα τους πληθυσμούς, πολέμαρχων που θέλουν να προβούν σε εθνοκαθάρσεις κ.α. Τα αυτόνομα όπλα είναι ιδανικά για αποστολές όπως δολοφονίες, αποσταθεροποίηση εθνών, καταστολή πληθυσμών και επιλεκτική εξόντωση εθνοτικών ομάδων. Οπότε πιστεύουμε ότι μια κούρσα εξοπλισμών στρατιωτικής τεχνητής νοημοσύνης δεν θα ήταν επωφελής για την ανθρωπότητα. Υπάρχουν πολλοί τρόποι με τους οποίους η ΑΙ μπορεί να κάνει τα πεδία μαχών ασφαλέστερα για τους ανθρώπους, ειδικά τους αμάχους, χωρίς να δημιουργήσει νέα εργαλεία για τον φόνο ανθρώπων».
hal 9000
«Ακριβώς όπως οι περισσότεροι χημικοί και βιολόγοι δεν ενδιαφέρονται να κατασκευάσουν χημικά ή βιολογικά όπλα, οι περισσότεροι ερευνητές τεχνητής νοημοσύνης δεν θα ήθελαν να κατασκευάσουν όπλα τεχνητής νοημοσύνης- και δεν θέλουν να βεβηλώσουν τον τομέα τους κάνοντάς το, προκαλώντας πιθανώς μεγάλες αντιδράσεις από το κοινό εναντίον της ΑΙ, που θα περιορίσει τα μελλοντικά της κοινωνικά οφέλη. Στην πραγματικότητα, χημικοί και βιολόγοι έχουν υποστηρίξει ευρέως διεθνείς συμφωνίες που έχουν επιτυχώς απαγορεύσει τα χημικά και βιολογικά όπλα, όπως και οι περισσότεροι φυσικοί έχουν υποστηρίξει τις συνθήκες απαγόρευσης πυρηνικών όπλων στο Διάστημα και τυφλωτικών λέιζερ».
«Συνοπτικά, πιστεύουμε ότι η ΑΙ έχει μεγάλες δυνατότητες να ωφελήσει την ανθρωπότητα με πολλούς τρόπους, και ότι ο στόχος του τομέα θα ήταν να το κάνει αυτό. Η έναρξη μιας κούρσας εξοπλισμών τεχνητής νοημοσύνης είναι κακή ιδέα, και θα έπρεπε να εμποδιστεί μέσω μιας απαγόρευσης στα επιθετικά αυτόνομα όπλα, πέρα από τον ανθρώπινο έλεγχο».

huffingtonpost