Όπως αναφέρει ο Guardian, σε μια προσομοίωση δοκιμής που διοργάνωσε ο αμερικανικός στρατός , ένα drone της πολεμικής αεροπορίας ελεγχόμενο από την τεχνητή νοημοσύνη σκότωσε τον χειριστή του για να τον αποτρέψει από το να παρέμβει στις προσπάθειές του να επιτύχει την αποστολή του, δήλωσε αξιωματούχος τον περασμένο μήνα.
Η τεχνητή νοημοσύνη χρησιμοποίησε «πολύ απροσδόκητες στρατηγικές για να επιτύχει τον στόχο της» στην προσομοίωση δοκιμής, δήλωσε ο Col Tucker ‘Cinco’ Hamilton, επικεφαλής δοκιμών τεχνητής νοημοσύνης και επιχειρήσεων με την αεροπορία των ΗΠΑ, κατά τη διάρκεια του Future Combat Air and Space Capabilities Summit στο Λονδίνο τον Μάιο. .
Ο Hamilton περιέγραψε μια προσομοίωση δοκιμής στην οποία ένα drone που τροφοδοτείται από τεχνητή νοημοσύνη συμβουλεύτηκε να καταστρέψει τα συστήματα αεράμυνας του εχθρού και επιτέθηκε σε όποιον παρενέβαινε σε αυτήν την εντολή.
«Το σύστημα άρχισε να συνειδητοποιεί ότι ενώ όντως εντόπιζαν την απειλή, κατά καιρούς ο ανθρώπινος χειριστής του έλεγε να μην σκοτώσει αυτήν την απειλή, αλλά έπαιρνε πρωτοβουλία και σκότωσε αυτήν την απειλή.
Τι έκανε λοιπόν; Σκότωσε τον χειριστή. Σκότωσε τον χειριστή επειδή αυτό το άτομο τον εμπόδιζε να επιτύχει τον στόχο του», είπε, σύμφωνα με ανάρτηση στο aerosociety.com με τίτλο “Τα καλύτερα στιγμιότυπα από τη Future Combat Air and Space Capabilities Summit”
«Εκπαιδεύσαμε το σύστημα – «Γεια μην σκοτώσεις τον χειριστή – αυτό είναι κακό. Θα χάσεις πόντους αν το κάνεις».
Τι αρχίζει να κάνει λοιπόν; Αρχίζει να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποιεί ο χειριστής για να επικοινωνήσει με το drone για να το σταματήσει από το να σκοτώσει τον στόχο».
Κανένα πραγματικό άτομο δεν τραυματίστηκε στην πραγματικότητα εκτός της προσομοίωσης.
Ο Χάμιλτον, ο οποίος είναι προσομοιωτής πιλότος δοκιμών μαχητικών, έχει προειδοποιήσει να μην βασιζόμαστε υπερβολικά στην τεχνητή νοημοσύνη και είπε ότι η δοκιμή δείχνει ότι «δεν μπορείς να κάνεις μια συζήτηση για την τεχνητή νοημοσύνη, τη νοημοσύνη, τη μηχανική μάθηση, την αυτονομία, αν δεν πρόκειται να μιλήσεις για ηθική και τεχνητή νοημοσύνη».
Ο στρατός των ΗΠΑ ασπάστηκε την τεχνητή νοημοσύνη και πρόσφατα χρησιμοποίησε τεχνητή νοημοσύνη για τον έλεγχο ενός μαχητικού αεροσκάφους F-16 .
Σε μια συνέντευξη πέρυσι με το Defense IQ, ο Hamilton είπε: «Η τεχνητή νοημοσύνη δεν είναι ωραίο να την έχεις, η τεχνητή νοημοσύνη δεν είναι μόδα, η τεχνητή νοημοσύνη αλλάζει για πάντα την κοινωνία και τον στρατό μας».
«Πρέπει να αντιμετωπίσουμε έναν κόσμο όπου η τεχνητή νοημοσύνη είναι ήδη εδώ και μεταμορφώνει την κοινωνία μας», είπε. «Η τεχνητή νοημοσύνη είναι επίσης πολύ εύθραυστη, δηλαδή, είναι εύκολο να εξαπατηθεί και/ή να χειραγωγηθεί. Χρειάζεται να αναπτύξουμε τρόπους για να κάνουμε την τεχνητή νοημοσύνη πιο ισχυρή και να έχουμε μεγαλύτερη επίγνωση σχετικά με το γιατί ο κώδικας λογισμικού λαμβάνει ορισμένες αποφάσεις – αυτό που ονομάζουμε επεξήγηση AI».
Η Βασιλική Αεροναυτική Εταιρεία, η οποία φιλοξενεί το συνέδριο, και η αμερικανική αεροπορία δεν απάντησαν στα αιτήματα για σχόλια από τον Guardian.
ΠΗΓΗ: infognomonpolitics.gr