Google: Διαψεύδει ότι το chatbot LaMDA απέκτησε συνείδηση
Πηγή Φωτογραφίας: searchenginejournal
Σενάριο επιστημονικής φαντασίας μοιάζει αυτό που συμβαίνει με πρωταγωνιστή ένα μηχανικό της Google και την εταιρία.
Η Google έθεσε έναν από τους μηχανικούς της σε αναγκαστική άδεια μετ’ αποδοχών για φερόμενη παραβίαση των πολιτικών απορρήτου της, αφότου δήλωσε ότι ένα σύστημα chatbot τεχνητής νοημοσύνης κατάφερε να αποκτήσει συνείδηση.
Σύμφωνα με την Washington Post, ο μηχανικός εργαζόταν για τον οργανισμό Responsible AI της Google. Μέσα στα καθήκοντά του ήταν το να εξετάσει εάν το μοντέλο LaMDA (Language Model for Dialogue Applications) δημιουργεί «μεροληπτική γλώσσα» ή «ρητορική μίσους».
Ο μηχανικός φέρεται να «ανησύχησε» για τα παραπάνω όταν το LaMDA άρχισε να δίνει «πειστικές απαντήσεις» για τα δικαιώματά του και την ηθική της ρομποτικής.
Τον Απρίλιο, ο μηχανικός μοιράστηκε ένα έγγραφο με στελέχη με τίτλο «Is LaMDA Sentient?» που περιέχει μια απομαγνητοφώνηση των συνομιλιών του με το AI, το οποίο λέει ότι δείχνει το μοντέλο LaMDA να επιχειρηματολογεί «ότι έχει συνείδηση επειδή έχει συναισθήματα, και υποκειμενική εμπειρία».
Η Google πιστεύει ότι οι ενέργειες του Lemoine σχετικά με τη δουλειά του στο LaMDA έχουν παραβιάσει τις πολιτικές εμπιστευτικότητάς της, αναφέρουν οι Washington Post και The Guardian.
Σε δήλωσή του, εκπρόσωπος της Google είπε ότι δεν υπάρχουν «αποδείξεις» ότι το LaMDA έχει συνείδηση.
«Η ομάδα εξέτασε τις ανησυχίες του Blake Lemoine σύμφωνα με τις Αρχές Τεχνητής Νοημοσύνης μας και τον ενημέρωσε ότι τα στοιχεία δεν υποστηρίζουν τους ισχυρισμούς του. Του ειπώθηκε ότι δεν υπήρχαν στοιχεία που να αποδεικνύουν ότι το LaMDA έχει συνείδηση (ενώ υπάρχουν πολλά στοιχεία για το αντίθετο)», δήλωσε ο εκπρόσωπος της Google Μπράιαν Γκάμπριελ.
Το σχόλιο σας