Οι αντιδράσεις της εταιρείας για τη χρήση του συστήματος Claude στην επιχείρηση αρπαγής του Νικολάς Μαδούρο
Ένα εργαλείο τεχνητής νοημοσύνης της Anthropic φέρεται να χρησιμοποιήθηκε στην επιχείρηση αρπαγής του Νικολάς Μαδούρο, παρά τους ρητούς περιορισμούς της εταιρείας για εφαρμογή σε σκοπούς βίας και στρατιωτικής φύσης.
Η τεχνητή νοημοσύνη εισέρχεται όλο και βαθύτερα στα πεδία των συγκρούσεων και μαζί της έρχονται νέα ερωτήματα για τα όρια, τις ευθύνες και τον έλεγχο.
Σύμφωνα με ρεπορτάζ της Wall Street Journal, το εργαλείο τεχνητής νοημοσύνης Claude, που έχει αναπτύξει η Anthropic, χρησιμοποιήθηκε από το Πεντάγωνο στην επιχείρηση αρπαγής προέδρου της Βενεζουέλα Νικολάς Μαδούρο, σύμφωνα με πρόσωπα που γνωρίζουν την υπόθεση. Η αποστολή, κατά την οποία απήχθη και η σύζυγος του προέδρου, φέρεται να περιλάμβανε βομβαρδισμούς σε πολλαπλούς στόχους στο Καράκας τον περασμένο μήνα.
Ωστόσο, οι κατευθυντήριες γραμμές χρήσης της Anthropic απαγορεύουν ρητά την αξιοποίηση του Claude για διευκόλυνση βίας, ανάπτυξη όπλων ή διεξαγωγή επιτήρησης.
Η απάντηση της εταιρείας και το background της συνεργασίας
Εκπρόσωπος της Anthropic δήλωσε ότι η εταιρεία «δεν μπορεί να σχολιάσει αν το Claude, ή οποιοδήποτε άλλο μοντέλο τεχνητής νοημοσύνης, χρησιμοποιήθηκε σε συγκεκριμένη επιχείρηση, διαβαθμισμένη ή μη». Τόνισε επίσης ότι οποιαδήποτε χρήση του Claude — είτε στον ιδιωτικό τομέα είτε από κρατικούς φορείς — οφείλει να συμμορφώνεται με τις πολιτικές χρήσης της εταιρείας, οι οποίες ρυθμίζουν το πώς μπορεί να αναπτυχθεί και να αξιοποιηθεί το μοντέλο.
Η αξιοποίηση του Claude φέρεται να έγινε μέσω της συνεργασίας της Anthropic με την εταιρεία δεδομένων Palantir Technologies, τα εργαλεία της οποίας χρησιμοποιούνται ευρέως από το Πεντάγωνο και τις ομοσπονδιακές αρχές επιβολής του νόμου. Οι ανησυχίες της Anthropic για τον τρόπο με τον οποίο μπορεί να χρησιμοποιηθεί το Claude από το Πεντάγωνο έχουν οδηγήσει, σύμφωνα με πληροφορίες, αξιωματούχους της αμερικανικής κυβέρνησης να εξετάζουν ακόμη και την ακύρωση του συμβολαίου της εταιρείας, αξίας έως 200 εκατ. δολαρίων.
Η Anthropic ήταν ο πρώτος προγραμματιστής μοντέλου τεχνητής νοημοσύνης του οποίου η τεχνολογία χρησιμοποιήθηκε σε διαβαθμισμένες επιχειρήσεις του αμερικανικού υπουργείου Άμυνας. Είναι πιθανό και άλλα εργαλεία τεχνητής νοημοσύνης να αξιοποιήθηκαν στην επιχείρηση στη Βενεζουέλα για μη διαβαθμισμένες λειτουργίες. Τα συστήματα αυτά μπορούν να χρησιμοποιηθούν για ένα ευρύ φάσμα εργασιών — από τη σύνοψη εγγράφων και την ανάλυση δεδομένων έως την υποστήριξη αυτόνομων συστημάτων, όπως μη επανδρωμένα αεροσκάφη.
Πολιτική σύγκρουση για την τεχνητή νοημοσύνη
Η στρατιωτική υιοθέτηση της τεχνητής νοημοσύνης θεωρείται κρίσιμη για τις εταιρείες του κλάδου, οι οποίες ανταγωνίζονται για κύρος και επιδιώκουν να δικαιολογήσουν τις υψηλές αποτιμήσεις τους. Ο διευθύνων σύμβουλος της Anthropic, Ντάριο Αμοντέι, έχει τοποθετηθεί δημόσια υπέρ αυστηρότερων ρυθμιστικών πλαισίων και «δικλείδων ασφαλείας» ώστε να αποτραπούν βλαβερές χρήσεις της τεχνητής νοημοσύνης. Έχει εκφράσει ειδικά ανησυχίες για τη χρήση της σε αυτόνομες φονικές επιχειρήσεις και σε συστήματα εσωτερικής επιτήρησης — δύο ζητήματα που αποτελούν βασικά σημεία τριβής στις διαπραγματεύσεις με το Πεντάγωνο.
Η στάση αυτή έχει οξύνει τη σύγκρουση της εταιρείας με την κυβέρνηση του προέδρου Ντόναλντ Τραμπ, η οποία κατηγορεί την Anthropic ότι υπονομεύει τη στρατηγική χαμηλής ρύθμισης στον τομέα της τεχνητής νοημοσύνης, ζητώντας περισσότερους περιορισμούς και ελέγχους — ακόμη και στις εξαγωγές προηγμένων τσιπ. Σε εκδήλωση του Ιανουαρίου, με αφορμή συνεργασία του Πενταγώνου με την εταιρεία xAI, ο υπουργός Άμυνας Πιτ Χέγκσεθ φέρεται να δήλωσε ότι το υπουργείο δεν θα «χρησιμοποιεί μοντέλα τεχνητής νοημοσύνης που δεν επιτρέπουν να διεξάγεις πολέμους», σχόλιο που συνδέθηκε με τις διαφωνίες που έχουν ανακύψει με την Anthropic.
Το διακύβευμα της σύγκρουσης
Το συμβόλαιο ύψους 200 εκατ. δολαρίων ανατέθηκε στην Anthropic το περασμένο καλοκαίρι. Παράλληλα, άλλες μεγάλες εταιρείες τεχνητής νοημοσύνης ενισχύουν τη συνεργασία τους με το υπουργείο Άμυνας, παρέχοντας προσαρμοσμένες εκδόσεις των μοντέλων τους για ανάλυση εγγράφων, παραγωγή αναφορών και υποστήριξη έρευνας.
Η υπόθεση, ωστόσο, φωτίζει ένα βαθύτερο δίλημμα: μπορεί μια εταιρεία που αυτοπροσδιορίζεται ως «ασφαλής» και προσανατολισμένη στην υπεύθυνη ανάπτυξη της τεχνητής νοημοσύνης να διατηρήσει τον έλεγχο του τρόπου με τον οποίο χρησιμοποιούνται τα μοντέλα της όταν αυτά εντάσσονται στον μηχανισμό εθνικής ασφάλειας;
Η απάντηση δεν αφορά μόνο την Anthropic. Αφορά το μέλλον της τεχνητής νοημοσύνης σε ένα περιβάλλον όπου η τεχνολογική υπεροχή και η στρατιωτική ισχύς συνδέονται πλέον άρρηκτα.
Πηγή: www.ethnos.gr
Στήριξε το έργο μας!
Η σελίδα μας βασίζεται στις δικές σου δωρεές για να παραμένει ανεξάρτητη και να προσφέρει υψηλής ποιότητας εναλλακτικές ειδήσεις. Υποστήριξέ μας σήμερα και βοήθησέ μας να συνεχίσουμε!
