Λιακόπουλε τι τα ‘γραφες και τώρα όλα θα γίνουν…
Η ιδέα ότι όποιος ελέγχει και διαμορφώνει την τεχνητή νοημοσύνη θα μπορούσε ενδεχομένως να ασκήσει σημαντική επιρροή σε μεγάλα τμήματα της κοινωνίας θα μπορούσε να είναι μια από τις πιο ανησυχητικές εξελίξεις τα επόμενα χρόνια.
Σε ένα πρόσφατο επεισόδιο του “Unconfuse Me with Bill Gates”, ο Sam Altman, ο Διευθύνων Σύμβουλος του OpenAI, και ο τεχνολογικός δισεκατομμυριούχος Bill Gates συζήτησαν για τις δυνατότητες της τεχνητής νοημοσύνης (AI) ως εργαλείου για τη διατήρηση της δημοκρατίας και την προώθηση της παγκόσμιας ειρήνης
Η συζήτηση μεταδόθηκε στις 11 Ιανουαρίου 2024. Δείτε την απομαγνητοφώνηση του επεισοδίου εδώ .
Η συζήτηση επικεντρώθηκε στην ιδέα της χρήσης της τεχνητής νοημοσύνης ως εργαλείου για την ενίσχυση της ενότητας στην κοινωνία, την ενίσχυση της παγκόσμιας φιλίας και την βοήθεια στην υπέρβαση της γεωπολιτικής πόλωσης.
Ο Γκέιτς μίλησε ενθουσιασμένος για το θέμα: «Πιστεύω ότι η τεχνητή νοημοσύνη, στην καλύτερη περίπτωση, μπορεί να μας βοηθήσει σε κάποια δύσκολα προβλήματα… Συμπεριλαμβανομένης της «πόλωσης», γιατί ενδεχομένως αυτή απειλεί την δημοκρατία και αυτό θα ήταν πολύ κακό».
Εκτός από την επίλυση της πόλωσης, συζήτησαν επίσης την έννοια της τεχνητής νοημοσύνης που μπορεί να λειτουργεί ως εργαλείο ειρήνης.
Ο Γκέιτς είπε: «Η τεχνητή νοημοσύνη μπορεί να μας βοηθήσει να έχουμε λιγότερους πολέμους, να είμαστε λιγότερο πολωμένοι. Θα ήθελα πολύ να έχω ανθρώπους να εργάζονται για τα πιο δύσκολα ανθρώπινα προβλήματα, όπως το αν τα πηγαίνουμε καλά μεταξύ μας. Νομίζω ότι αυτό θα ήταν εξαιρετικά θετικό αν πιστεύαμε ότι η τεχνητή νοημοσύνη θα μπορούσε να συμβάλει στο να τα πηγαίνουν καλά οι άνθρωποι μεταξύ τους».
Ο Sam Altman απάντησε θετικά στο όραμα του Gates, δηλώνοντας: «Πρέπει να μάθουμε και να δούμε, αλλά είμαι πολύ αισιόδοξος. Συμφωνώ μαζί σου».
«Αν το κλειδί είναι να σταματήσει ολόκληρος ο κόσμος να κάνει κάτι επικίνδυνο, τότε θες σχεδόν μια παγκόσμια κυβέρνηση, καθώς σήμερα για πολλά θέματα, όπως το κλίμα, η τρομοκρατία, βλέπουμε ότι είναι δύσκολο για εμάς να συνεργαστούμε», είπε ο Γκέιτς, όταν η κουβέντα οδηγήθηκε σε παγκόσμια ζητήματα όπως τα πυρηνικά.
Σχετικά με το θέμα της πόλωσης, ο Άλτμαν και ο Γκέιτς εξέφρασαν την λύπη τους ότι η κυβέρνηση (οι κυβερνήσεις), όπως ισχυρίζονται, δεν ενήργησε ενάντια στην «πόλωση» των μέσων κοινωνικής δικτύωσης, αλλά ελπίζουν ότι θα υπήρχε τέτοια δυνατότητα με την τεχνητή νοημοσύνη (παρέμβαση κατά οτιδήποτε θεωρήσει πως απειλεί την καθεστηκυία τάξη πραγμάτων).
«Δεν καταλαβαίνω γιατί η κυβέρνηση δεν μπόρεσε να είναι πιο αποτελεσματική γύρω από τα μέσα κοινωνικής δικτύωσης, αλλά φαίνεται ότι αξίζει να προσπαθήσουμε να κατανοήσουμε ως μελέτη τι πρόκειται να περάσουν τώρα με την τεχνητή νοημοσύνη», πρόσθεσε ο Άλτμαν.
Όπως σχολιάζουν εναλλακτικά ΜΜΕ στην Αμερική, η συζήτηση παραλείπει, ενδεχομένως εσκεμμένα, μια κρίσιμη πτυχή: την επιρροή των πεποιθήσεων και των αρχών των ίδιων των προγραμματιστών στην λειτουργία της τεχνητής νοημοσύνης, η οποία αργότερα θα έχει δική της προσωπικότητα και θα λαμβάνει αυτόνομες αποφάσεις! Οι σχεδιαστές και οι προγραμματιστές συστημάτων τεχνητής νοημοσύνης ενσωματώνουν εγγενώς τις δικές τους ιδέες για την δημοκρατία, την ελευθερία του λόγου και την διακυβέρνηση στους αλγόριθμους της τεχνητής νοημοσύνης. Αυτό εγείρει σημαντικές ανησυχίες σχετικά με τον αντίκτυπο αυτών των προσωπικών μεροληψιών στην ουδετερότητα της τεχνητής νοημοσύνης! και στην ικανότητά του να λαμβάνει δίκαιες, αμερόληπτες αποφάσεις.
Με μια φράση: ΑΝ ΟΙ ΚΑΤΑΣΚΕΥΑΣΤΕΣ ΕΙΝΑΙ ΔΙΕΦΘΑΡΜΕΝΟΙ, ΤΟΤΕ ΚΑΙ Η AI ΘΑ ΕΙΝΑΙ ΔΙΕΦΘΑΡΜΕΝΗ! ΤΙ ΜΑΣ ΕΧΕΙ ΔΕΙΞΕΙ Η ΕΜΠΕΙΡΙΑ; ΟΙ ΕΞΟΥΣΙΑΣΤΕΣ ΠΟΥ ΠΡΟΩΘΟΥΝ ΟΛΑ ΑΥΤΑ ΑΓΑΠΟΥΝ ΤΟΥΣ ΠΟΛΙΤΕΣ ΤΟΥ ΚΟΣΜΟΥ Ή ΘΕΛΟΥΝ ΝΑ ΤΟΥΣ ΔΥΣΚΟΛΕΨΟΥΝ, ΑΝ ΟΧΙ ΝΑ ΤΟΥΣ ΒΛΑΨΟΥΝ, ΤΗΝ ΖΩΗ;;;
Η προοπτική να προγραμματιστούν συστήματα τεχνητής νοημοσύνης με συγκεκριμένες ιδεολογίες θα μπορούσε να έχει βαθιές επιπτώσεις στην ελευθερία του λόγου. Εάν μια τεχνητή νοημοσύνη έχει σχεδιαστεί για να ευνοεί ορισμένες πολιτικές ή κοινωνικές απόψεις, (εξαιρουμένων εκείνων που κρίνει ότι είναι «πολωτικές») θα μπορούσε ενδεχομένως να καταστείλει τις αντίθετες προσεγγίσεις, οδηγώντας σε μια μορφή ψηφιακής λογοκρισίας.
Αυτό γίνεται ιδιαίτερα ανησυχητικό στο πλαίσιο των πλατφορμών τεχνητής νοημοσύνης που διαχειρίζονται μεγάλης κλίμακας δημόσιο λόγο, όπως αλγόριθμοι μέσων κοινωνικής δικτύωσης ή εργαλεία συγκέντρωσης ειδήσεων. Η δύναμη της διακριτικής διαμόρφωσης της κοινής γνώμης και του ελέγχου της αφήγησης σε κρίσιμα ζητήματα θα μπορούσε να είναι μια συνέπεια της τεχνητής νοημοσύνης που έχει προγραμματιστεί με συγκεκριμένα… «ιδανικά».
photo ΑΠΕ-ΜΠΕ/EPA-EPA.el.gr
Επιλεξτε να γινετε οι πρωτοι που θα εχετε προσβαση στην Πληροφορια του Stranger Voice
Τι ειπε η ιδια η ΑΙ οταν τη ρωτησαν
https://youtube.com/shorts/eIMkvPz47KY?si=73LUHQXEYVi7iXEs