CNBC: Ο Μασκ θέλει να σταματήσει την «επικίνδυνη» ανάπτυξη της AI
Πηγή Φωτογραφίας: Encyclopedia Britannica
Οι προγραμματιστές τεχνητής νοημοσύνης, εξέχοντες ηθικολόγοι της τεχνητής νοημοσύνης και ακόμη και ο συνιδρυτής της Microsoft, Μπιλ Γκέιτς, πέρασαν την περασμένη εβδομάδα υπερασπιζόμενοι τη δουλειά τους. Αυτό είναι απάντηση σε μια ανοιχτή επιστολή που δημοσιεύθηκε την περασμένη εβδομάδα από το Future of Life Institute, που υπογράφηκε από τον Διευθύνοντα Σύμβουλο της Tesla, Ίλον Μασκ και τον συνιδρυτή της Apple, Στηβ Βόσνιακ, ζητώντας εξάμηνη διακοπή της εργασίας σε συστήματα τεχνητής νοημοσύνης που μπορούν να ανταγωνιστούν σε ανθρώπινο επίπεδο την νοημοσύνη.
Η επιστολή, η οποία έχει πλέον περισσότερες από 13.500 υπογραφές, εξέφραζε φόβο ότι η «επικίνδυνη κούρσα» για την ανάπτυξη προγραμμάτων όπως το ChatGPT του OpenAI, το Bing AI chatbot της Microsoft και το Alphabet Bard θα μπορούσε να έχει αρνητικές συνέπειες εάν αφεθεί ανεξέλεγκτη, από την εκτεταμένη παραπληροφόρηση έως την εκχώρηση ανθρώπινων θέσεων εργασίας. σε μηχανές. Όμως, μεγάλα τμήματα της τεχνολογικής βιομηχανίας, συμπεριλαμβανομένου τουλάχιστον ενός από τους μεγαλύτερους διακεκριμένους της, ωθούν πίσω.
«Δεν νομίζω ότι ζητώντας από μια συγκεκριμένη ομάδα να σταματήσει λύνει τις προκλήσεις», είπε ο Γκέιτς στο Reuters τη Δευτέρα. Μια παύση θα ήταν δύσκολο να επιβληθεί σε μια παγκόσμια βιομηχανία, πρόσθεσε ο Γκέιτς – αν και συμφώνησε ότι η βιομηχανία χρειάζεται περισσότερη έρευνα για να «προσδιορίσει τις δύσκολες περιοχές». Αυτό είναι που κάνει τη συζήτησ ενδιαφέρουσα, λένε οι ειδικοί: Η ανοιχτή επιστολή μπορεί να αναφέρει ορισμένες εύλογες ανησυχίες, αλλά η προτεινόμενη λύση φαίνεται αδύνατο να επιτευχθεί.
Να γιατί, και τι θα μπορούσε να συμβεί στη συνέχεια – από τους κυβερνητικούς κανονισμούς μέχρι οποιαδήποτε πιθανή εξέγερση ρομπότ. Οι ανησυχίες της ανοιχτής επιστολής είναι σχετικά ξεκάθαρες: «Τους τελευταίους μήνες είδαν εργαστήρια τεχνητής νοημοσύνης να εγκλωβίζονται σε έναν αγώνα εκτός ελέγχου για την ανάπτυξη ολοένα και πιο ισχυρών ψηφιακών μυαλών που κανείς —ακόμα και οι δημιουργοί τους— δεν μπορεί να καταλάβει, να προβλέψει ή να ελέγξει αξιόπιστα» Τα συστήματα AI συχνά συνοδεύονται από προκαταλήψεις προγραμματισμού και πιθανά ζητήματα απορρήτου. Μπορούν να διαδώσουν ευρέως παραπληροφόρηση, ειδικά όταν χρησιμοποιούνται με κακόβουλο τρόπο. Και είναι εύκολο να φανταστεί κανείς εταιρείες που προσπαθούν να εξοικονομήσουν χρήματα αντικαθιστώντας τις ανθρώπινες θέσεις εργασίας — από προσωπικούς βοηθούς έως εκπροσώπους εξυπηρέτησης πελατών — με συστήματα γλώσσας AI.
Η Ιταλία έχει ήδη απαγορεύσει προσωρινά το ChatGPT για ζητήματα απορρήτου που προκύπτουν από παραβίαση δεδομένων OpenAI. Η κυβέρνηση του Ηνωμένου Βασιλείου δημοσίευσε συστάσεις ρύθμισης την περασμένη εβδομάδα και η Ευρωπαϊκή Οργάνωση Καταναλωτών κάλεσε τους νομοθέτες σε όλη την Ευρώπη να ενισχύσουν επίσης τους κανονισμούς. Στις ΗΠΑ, ορισμένα μέλη του Κογκρέσου έχουν ζητήσει νέους νόμους για τη ρύθμιση της τεχνολογίας AI. Τον περασμένο μήνα, η Ομοσπονδιακή Επιτροπή Εμπορίου εξέδωσε οδηγίες για τις επιχειρήσεις που αναπτύσσουν τέτοια chatbot, υπονοώντας ότι η ομοσπονδιακή κυβέρνηση παρακολουθεί στενά τα συστήματα τεχνητής νοημοσύνης που μπορούν να χρησιμοποιηθούν από απατεώνες.
Και πολλοί κρατικοί νόμοι περί απορρήτου που ψηφίστηκαν πέρυσι στοχεύουν να αναγκάσουν τις εταιρείες να αποκαλύψουν πότε και πώς λειτουργούν τα προϊόντα τεχνητής νοημοσύνης τους και να δώσουν στους πελάτες την ευκαιρία να εξαιρεθούν από την παροχή προσωπικών δεδομένων για αποφάσεις αυτοματοποιημένες με AI. Αυτοί οι νόμοι ισχύουν επί του παρόντος στην Καλιφόρνια, το Κονέκτικατ, το Κολοράντο, τη Γιούτα και τη Βιρτζίνια.
Διαβάστε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο
Το σχόλιο σας