Τεχνολογία

Google: Διαψεύδει ότι το chatbot LaMDA απέκτησε συνείδηση

Μηχανικούς της εταιρίας τέθηκε σε διαθεσιμότητα μετά τις δηλώσεις του ότι ένα σύστημα chatbot τεχνητής νοημοσύνης κατάφερε να αποκτήσει συνείδηση - Η Google υποστηρίζει ότι δεν υπάρχουν «αποδείξεις»

Σενάριο επιστημονικής φαντασίας μοιάζει αυτό που συμβαίνει με πρωταγωνιστή ένα μηχανικό της Google και την εταιρία.

Η Google έθεσε έναν από τους μηχανικούς της σε αναγκαστική άδεια μετ’ αποδοχών για φερόμενη παραβίαση των πολιτικών απορρήτου της, αφότου δήλωσε ότι ένα σύστημα chatbot τεχνητής νοημοσύνης κατάφερε να αποκτήσει συνείδηση.

Σύμφωνα με την Washington Post, ο μηχανικός εργαζόταν για τον οργανισμό Responsible AI της Google. Μέσα στα καθήκοντά του ήταν το να εξετάσει εάν το μοντέλο LaMDA (Language Model for Dialogue Applications) δημιουργεί «μεροληπτική γλώσσα» ή «ρητορική μίσους».

Ο μηχανικός φέρεται να «ανησύχησε» για τα παραπάνω όταν το LaMDA άρχισε να δίνει «πειστικές απαντήσεις» για τα δικαιώματά του και την ηθική της ρομποτικής.

Τον Απρίλιο, ο μηχανικός μοιράστηκε ένα έγγραφο με στελέχη με τίτλο «Is LaMDA Sentient?» που περιέχει μια απομαγνητοφώνηση των συνομιλιών του με το AI, το οποίο λέει ότι δείχνει το μοντέλο LaMDA να επιχειρηματολογεί «ότι έχει συνείδηση επειδή έχει συναισθήματα, και υποκειμενική εμπειρία».

Η Google πιστεύει ότι οι ενέργειες του Lemoine σχετικά με τη δουλειά του στο LaMDA έχουν παραβιάσει τις πολιτικές εμπιστευτικότητάς της, αναφέρουν οι Washington Post και The Guardian.

Σε δήλωσή του, εκπρόσωπος της Google είπε ότι δεν υπάρχουν «αποδείξεις» ότι το LaMDA έχει συνείδηση.

«Η ομάδα εξέτασε τις ανησυχίες του Blake Lemoine σύμφωνα με τις Αρχές Τεχνητής Νοημοσύνης μας και τον ενημέρωσε ότι τα στοιχεία δεν υποστηρίζουν τους ισχυρισμούς του. Του ειπώθηκε ότι δεν υπήρχαν στοιχεία που να αποδεικνύουν ότι το LaMDA έχει συνείδηση (ενώ υπάρχουν πολλά στοιχεία για το αντίθετο)», δήλωσε ο εκπρόσωπος της Google Μπράιαν Γκάμπριελ.

Διαβάστε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο