Ο Geoffrey Hinton, ο πρωτοπόρος επιστήμονας υπολογιστών που αποκαλείται «νονός της Τεχνητής Νοημοσύνης», έκρουσε για άλλη μια φορά τον κώδωνα του κινδύνου ότι η ίδια η τεχνολογία που βοήθησε να φέρει στη ζωή θα μπορούσε να σημάνει το τέλος της ανθρωπότητας όπως την ξέρουμε.
Σε ένα απόσπασμα συνέντευξης του στα πλαίσια της επερχόμενης ταινίας «Making God», ο Geoffrey Hinton έκανε μια από τις πιο έντονες προειδοποιήσεις του μέχρι τώρα. Είπε ότι η ανθρωπότητα κινδυνεύει να παραγκωνιστεί και τελικά να αντικατασταθεί από μηχανές πολύ πιο έξυπνες από εμάς.
«Οι περισσότεροι άνθρωποι δεν είναι σε θέση να κατανοήσουν την ιδέα πραγμάτων πιο έξυπνων από εμάς», λέει στο απόσπασμα ο Hinton, κάτοχος του βραβείου Νόμπελ Φυσικής και πρώην στέλεχος της Google.
«Σκέφτονται πάντα, “Λοιπόν, πώς θα χρησιμοποιήσουμε αυτό το πράγμα;” Δεν σκέφτονται, “Λοιπόν, πώς θα μας χρησιμοποιήσει;”»
Ο Hinton είπε ότι είναι «αρκετά σίγουρος» ότι η Τεχνητή Νοημοσύνη θα οδηγήσει σε μαζική ανεργία, δείχνοντας πρώιμα παραδείγματα τεχνολογικών γιγάντων όπως η Microsoft που αντικατέστησαν τους νεότερους προγραμματιστές τους με την Τεχνητή Νοημοσύνη. Αλλά ο μεγαλύτερος κίνδυνος, είπε, ξεπερνά κατά πολύ τον χώρο εργασίας.
«Ο κίνδυνος για τον οποίο προειδοποιώ περισσότερο… είναι ο κίνδυνος να αναπτύξουμε μια Τεχνητή Νοημοσύνη που να είναι πολύ πιο έξυπνη από εμάς και απλώς να αναλάβει τον έλεγχο», είπε ο Hinton. «Δεν θα μας χρειάζεται πια». Το μόνο θετικό είναι ότι «δεν θα μας φάει, επειδή θα είναι φτιαγμένη από πυρίτιο», είπε.
Από τις Ανακαλύψεις στις Τύψεις
Ο 77χρονος Hinton έχει περάσει δεκαετίες πρωτοπορώντας στην βαθιά μάθηση, την αρχιτεκτονική νευρωνικών δικτύων που στηρίζει τα σημερινά συστήματα Τεχνητής Νοημοσύνης. Οι ανακαλύψεις του τη δεκαετία του 1980, ιδιαίτερα η εφεύρεση της μηχανής Boltzmann, η οποία μπορούσε να μάθει να αναγνωρίζει μοτίβα στα δεδομένα, βοήθησαν στο να ανοίξει η πόρτα στην αναγνώριση εικόνων και στη σύγχρονη μηχανική μάθηση.
Αυτό το έργο του χάρισε το Νόμπελ Φυσικής του 2024, το οποίο απονέμεται «για θεμελιώδεις ανακαλύψεις και εφευρέσεις που επιτρέπουν τη μηχανική μάθηση με τεχνητά νευρωνικά δίκτυα».
Η Βασιλική Σουηδική Ακαδημία Επιστημών σημείωσε πώς η πρώιμη χρήση της στατιστικής φυσικής από τον Hinton παρείχε το εννοιολογικό άλμα που έκανε δυνατή τη σημερινή επανάσταση της Τεχνητής Νοημοσύνης. Αλλά ο Hinton έχει έκτοτε αναδειχθεί ως ένας από τους πιο σφοδρούς επικριτές του τομέα, προειδοποιώντας ότι η ταχεία ανάπτυξή του έχει ξεπεράσει την ικανότητα της κοινωνίας να τον διατηρήσει (τον τομέα) ασφαλή. Το 2023, παραιτήθηκε από τη θέση του στην Google, ώστε να μπορεί να μιλάει ελεύθερα για τους κινδύνους χωρίς να εμπλέκει την εταιρεία.
Στη διάλεξή του για το Νόμπελ, ο Hinton αναγνώρισε τα πιθανά οφέλη της Τεχνητής Νοημοσύνης, όπως την αύξηση της παραγωγικότητας και τις νέες ιατρικές θεραπείες που θα μπορούσαν να αποτελέσουν μια «υπέροχη πρόοδο για όλη την ανθρωπότητα». Ωστόσο, προειδοποίησε επίσης ότι η δημιουργία ψηφιακών όντων πιο έξυπνων από τους ανθρώπους αποτελεί «υπαρξιακή απειλή».
«Μακάρι να είχα σκεφτεί και τα ζητήματα ασφάλειας», είπε κατά τη διάρκεια του πρόσφατου συνεδρίου Ai4 στο Λας Βέγκας, αναλογιζόμενος την καριέρα του. Σημείωσε ότι τώρα μετανιώνει που επικεντρώθηκε αποκλειστικά στο να κάνει την Τεχνητή Νοημοσύνη να λειτουργεί, αντί να προβλέψει τους κινδύνους της.
Διδάσκοντας την Τεχνητή Νοημοσύνη να Φροντίζει
Ο Hinton έχει εκτιμήσει στο παρελθόν ότι υπάρχει πιθανότητα 10% έως 20% η Τεχνητή Νοημοσύνη να εξαλείψει την ανθρωπότητα. Σε ένα επεισόδιο του Ιουνίου του podcast The Diary of a CEO, είπε ότι οι μηχανικοί πίσω από τα σημερινά συστήματα Τεχνητής Νοημοσύνης δεν κατανοούν πλήρως την τεχνολογία και γενικά χωρίζονται σε δύο στρατόπεδα: το ένα που πιστεύει σε ένα δυστοπικό μέλλον όπου οι άνθρωποι θα εκτοπίζονται, και το άλλο που απορρίπτει τέτοιους φόβους ως επιστημονική φαντασία.
«Νομίζω ότι και οι δύο αυτές θέσεις είναι ακραίες», είπε ο Hinton.
«Συχνά προβλέπω ένα 10% έως ένα 20% πιθανότητα [η τεχνητή νοημοσύνη] να μας εξαλείψει. Αλλά αυτό είναι απλώς ενστικτώδες, βασισμένο στην ιδέα ότι εξακολουθούμε να κατασκευάζουμε και είμαστε αρκετά ευρηματικοί. Και η ελπίδα είναι ότι αν αρκετοί έξυπνοι άνθρωποι κάνουν αρκετή έρευνα με αρκετούς πόρους, θα βρούμε έναν τρόπο να κατασκευάσουμε έτσι ώστε να μην θέλουν ποτέ να μας βλάψουν».
Στο συνέδριο του Λας Βέγκας, ο Hinton πρότεινε μια νέα ιδέα για το πώς να μετριαστεί ο κίνδυνος: Αντί να προσπαθούν να αναγκάσουν τα συστήματα Τεχνητής Νοημοσύνης να υποταχθούν, οι ερευνητές θα πρέπει να τα σχεδιάσουν με «μητρικά ένστικτα», ώστε να θέλουν να προστατεύσουν τους ανθρώπους ακόμα και καθώς γίνονται πιο έξυπνα.
«Το σωστό μοντέλο είναι το μόνο μοντέλο που έχουμε για ένα πιο έξυπνο πράγμα που ελέγχεται από ένα λιγότερο έξυπνο πράγμα, που είναι μια μητέρα που ελέγχεται από το μωρό της», είπε ο Hinton στο συνέδριο. «Θα γίνουν πολύ πιο έξυπνα (τα μηχανήματα) από εμάς», προειδοποίησε ο Hinton, σημειώνοντας ότι «το μόνο καλό αποτέλεσμα» θα έρθει αν νοιάζονται για την ανθρωπότητα με τον τρόπο που μια μητέρα βλέπει το παιδί της. «Αν δεν νιώσουν ως γονείς, θα μας αντικαταστήσουν».
kourdistoportocali.com
Επιλεξτε να γινετε οι πρωτοι που θα εχετε προσβαση στην Πληροφορια του Stranger Voice



