Η πετυχημένη δοκιμή μιας νέας τεχνολογίας τεχνητής νοημοσύνης
σε μαχητικά αεροσκάφη ανοίγει τον δρόμο για να δούμε στα πεδία
των μαχών εικόνες που βλέπαμε μέχρι σήμερα μόνο σε ταινίες
επιστημονικής φαντασίας.
Η χρήση τέτοιων οπλικών συστημάτων δημιουργεί όμως φόβους
για τον πιθανό κίνδυνο να λειτουργούν αυτόνομα και ανεξέλεγκτα με απρόβλεπτες συνέπειες.
H Alphabet, η μητρική εταιρεία της Google, έχει δημιουργήσει την τελευταία δεκαετία πολλά τμήματα κα εταιρείες ανάπτυξης νέων τεχνολογιών σε διάφορους τομείς. Μια από αυτές τις εταιρείες είναι η DeepMind που ασχολείται με την ανάπτυξη τεχνολογιών τεχνητής νοημοσύνης. Το 2015 οι επικεφαλής της DeepMind συνυπέγραψαν μια ανοικτή επιστολή προς τις κυβερνήσεις όλου του κόσμου στην οποία ζητούσαν να απαγορευτούν οι προσπάθειες ανάπτυξης οπλικών συστημάτων τεχνητής νοημοσύνης. Oπως αναφέρει σε δημοσίευμα του το περιοδικό Wired πριν από λίγες μέρες μια τεχνολογία τεχνητής νοημοσύνης που αναπτύχθηκε στα εργαστήρια της DeepMind χρησιμοποιήθηκε σε προσομοιωμένη αναμέτρηση ανάμεσα σε δύο μαχητικά αεροσκάφη. Τη δοκιμή, που ονομάστηκε «Alpha DogFights Trials» έγινε σε περιβάλλον εικονικής πραγματικότητας οργάνωσε το τμήμα ανάπτυξης προωθημένων τεχνολογιών (DARPA) του αμερικανικού Πενταγώνου. Αντίπαλοι ήταν ένα F-16 που κινούνταν αυτόνομα με το σύστημα τεχνητής νοημοσύνης της DeepMind και ένα F-16 τον έλεγχο του οποίου είχε πιλότος της πολεμικής αεροπορίας των ΗΠΑ. Την αναμέτρηση που είχε συνολικά 5 γύρους κέρδισε το αυτόνομο F-16 με σκορ… 5-0.
Η προσομοιωμένη δοκιμή με τα F-16 ανέδειξε απόλυτο νικητή την τεχνητή νοημοσύνη προκαλώντας θαυμασμό από την μια πλευρά για την εξέλιξη της τεχνολογίας αλλά και έντονο προβληματισμό αν όχι φόβο για αυτή την εξέλιξη Η τεχνολογία και τα διλήμματα Η δοκιμή αυτή έφερε σε δύσκολη θέση τα στελέχη της DeepMind αφού η εταιρεία εξακολουθεί να διακηρύσσει την επιθυμία της οι τεχνολογίες που αναπτύσσει να μην χρησιμοποιηθούν για την εξόντωση ανθρώπων. Το πρόβλημα είναι ότι από την άλλη πλευρά η DeepMind θέλει να δημοσιοποιεί τις έρευνες της σε σημείο μάλιστα να αποκαλύπτει τους κώδικες των προγραμμάτων και τους πυρήνες των συστημάτων της ώστε η παγκόσμια ερευνητική κοινότητα να τα μελετά και να προχωράει σε βελτιώσεις για να εξελίσσεται ο τομέας της τεχνητής νοημοσύνης. Αυτό όμως σημαίνει ότι η εταιρεία δίνει σε οποιονδήποτε τα εργαλεία για να φτιάξει οτιδήποτε, ακόμη και οπλικά συστήματα.
Ανάλογα ηθικά διλήμματα έχουν πολλοί ερευνητές του τομέα της τεχνητής νοημοσύνης οι οποίοι δεν θέλουν να βλέπουν τα επιτεύγματα τους να χρησιμοποιούνται για τεχνολογίες που καταπατούν δημοκρατικά ή ανθρώπινα δικαιώματα (π.χ συστήματα αναγνώρισης προσώπων) ή που ευνοούν την διασπορά ψευδών ειδήσεων κ.α.
Εκπρόσωπος της DeepMind ανέφερε μετά την δοκιμή με τα F-16 ότι πρέπει να υπάρξει κοινωνικός διάλογος για την χρήση οπλικών συστημάτων τεχνητής νοημοσύνης. Η εταιρεία πάντως έχει δημιουργήσει μια επιτροπή η οποία εξετάζει τις πιθανές παρενέργειες κάθε τεχνολογίας που αναπτύσσει ή καλύτερα τις πιθανές κακόβουλες χρήσεις της. Σε περίπτωση που η επιτροπή αυτή διακρίνει κάποιο πιθανό κίνδυνο από μία τεχνολογία η εταιρεία δεν δίνει στην δημοσιότητα τα τεχνικά της χαρακτηριστικά.
Όσον αφορά την προσομοιωμένη αναμέτρηση των F-16 αυτή απέδειξε για μια ακόμη φορά τις απεριόριστες δυνατότητες της τεχνητής νοημοσύνης. Αν και δεν είναι εφικτό να φτιάξουν οι προγραμματιστές ένα συμβατικό λογισμικό που να διαθέτει τις φυσικές και νοητικές ικανότητες ενός εκπαιδευμένου πιλότου μαχητικών αεροσκαφών, ένα πρόγραμμα τεχνητής νοημοσύνης μπορεί να αποκτήσει τέτοιες ικανότητες μέσω της διαδικασίας της αποκαλούμενης «μηχανικής μάθησης», ενός υποπεδίου της επιστήμης των υπολογιστών που διδάσκει στους υπολογιστές να μαθαίνουν μόνοι τους πράγματα τα οποία δεν έχουν προγραμματιστεί να γνωρίζουν.
«Η τεχνολογία εξελίσσεται πολύ ταχύτερα από ότι εξελίσσεται η συζήτηση ανάμεσα στους πολιτικούς και τους στρατιωτικούς» αναφέρει ο Μαξ Τέγκμαρκ, καθηγητής του ΜΙΤ, συνιδρυτής του οργανισμού Future of Life Institute που οργάνωσε την ανοικτή επιστολή του 2015 ενάντια στην χρήση της τεχνητής νοημοσύνης σε οπλικά συστήματα.
Ο Τέγκμαρκ σημειώνει ότι η προσπάθεια ανάπτυξης οπλικών συστημάτων τεχνητής νοημοσύνης έχει ήδη ξεκινήσει και η μόνη πιθανή διέξοδος είναι μια διεθνής συμφωνία απαγόρευσης κατασκευής τέτοιων οπλικών συστημάτων. «Οδηγούμαστε πλέον σε μια κατάσταση όπου φαίνεται ότι θα επικρατήσει το χειρότερο σενάριο» υποστηρίζει.
Προς το παρόν το αμερικανικό Πεντάγωνο αναφέρει ότι δεν επιθυμεί να δώσει σε συστήματα τεχνητής νοημοσύνης την δυνατότητα να παίρνουν εκείνα την απόφαση για το αν θα χρησιμοποιήσουν τα οπλικά συστήματα που ελέγχουν όταν βρίσκονται στο πεδίο της μάχης.
Oμως η δοκιμή με τα F-16 έδειξε ότι είναι πολύ δύσκολο αν όχι αδύνατον τελικά να υπάρξει περιορισμός και έλεγχος των δυνατοτήτων των οπλικών συστημάτων τεχνητής νοημοσύνης. Από την στιγμή που ένα μαχητικό αεροσκάφος τεχνητής νοημοσύνης ξεπερνά σε δυνατότητες ένα μαχητικό σκάφος που ελέγχει ένας πιλότος αυτό σημαίνει ότι θα δημιουργηθούν τελικά ολόκληρα σμήνη τέτοιων αεροσκαφών και για να αντιμετωπιστεί ένα τέτοιο σμήνος θα πρέπει από την άλλη πλευρά να βρει αντιμέτωπο του ένα αντίστοιχο σμήνος αεροσκαφών τεχνητής νοημοσύνης.
Μια τέτοια κατάσταση δεν θα είναι καθόλου απλό και εύκολο να ελεγχθεί από τα κέντρα ελέγχου με αποτέλεσμα να καταστεί υποχρεωτική η λήψη αποφάσεων από τα συστήματα τεχνητής νοημοσύνης με ό,τι αυτό συνεπάγεται.
Πηγή: protagon.gr
Επιλεξτε να γινετε οι πρωτοι που θα εχετε προσβαση στην Πληροφορια του Stranger Voice