Global News

New York Times: Ο «νονός» της τεχνητής νοημοσύνης προειδοποιεί

Ο Γκόφρει Χίντον, που θεωρείται ευρέως ως ο νονός της τεχνητής νοημοσύνης (AI) παραιτήθηκε από τη δουλειά του στην Google, προειδοποιώντας για τους αυξανόμενους κινδύνους από τις εξελίξεις στον τομέα.

Ο 75χρονος Χίντον δήλωσε στο BBC ότι ορισμένοι από τους κινδύνους των chatbots AI ήταν «αρκετά τρομακτικοί». Αυτή τη στιγμή, δεν είναι πιο έξυπνοι από εμάς, όσο μπορώ να πω. Αλλά νομίζω ότι σύντομα μπορεί να γίνουν. Ο Δρ Χίντον αποδέχτηκε επίσης ότι η ηλικία του είχε παίξει στην απόφασή του να εγκαταλείψει τον τεχνολογικό γίγαντα, λέγοντας στο BBC: «Είμαι 75, οπότε ήρθε η ώρα να αποσυρθώ».

Η πρωτοποριακή έρευνα του Γ. Χίντον για τα νευρωνικά δίκτυα και τη βαθιά μάθηση άνοιξε το δρόμο για τα τρέχοντα συστήματα AI όπως το ChatGPT. Στην τεχνητή νοημοσύνη, τα νευρωνικά δίκτυα είναι συστήματα που μοιάζουν με τον ανθρώπινο εγκέφαλο στον τρόπο με τον οποίο μαθαίνουν και επεξεργάζονται πληροφορίες. Δίνουν τη δυνατότητα στους AI να μάθουν από την εμπειρία, όπως θα έκανε ένα άτομο. Αυτό ονομάζεται βαθιά μάθηση. Ο Βρετανο-Καναδός γνωσιακός ψυχολόγος και επιστήμονας υπολογιστών, Γ. Χίντον, είπε στο BBC ότι τα chatbots θα μπορούσαν σύντομα να ξεπεράσουν το επίπεδο πληροφοριών που κατέχει ένας ανθρώπινος εγκέφαλος.

«Αυτή τη στιγμή, αυτό που βλέπουμε είναι πράγματα όπως το GPT-4 επισκιάζει ένα άτομο στο βαθμό των γενικών γνώσεων που έχει και το επισκιάζει κατά πολύ. Από άποψη συλλογισμού, δεν είναι τόσο καλό, αλλά το κάνει ήδη απλή λογική», ανέφερε ο γνωσιακός ψυχολόγος. Και δεδομένου του ρυθμού προόδου, αναμένουμε ότι τα πράγματα θα βελτιωθούν αρκετά γρήγορα. Επομένως, πρέπει να ανησυχούμε για αυτό. Στο άρθρο των New York Times, ο Δρ. Χίντον αναφέρθηκε σε «κακούς ηθοποιούς» που θα προσπαθούσαν να χρησιμοποιήσουν την τεχνητή νοημοσύνη για «κακά πράγματα». Όταν του ζητήθηκε από το BBC να δώσει περισσότερες λεπτομέρειες σχετικά με αυτό, απάντησε: «Αυτό είναι απλώς ένα είδος χειρότερου σεναρίου, ένα είδος εφιαλτικού σεναρίου.

«Μπορείτε να φανταστείτε, για παράδειγμα, κάποιος κακός ηθοποιός όπως ο [Ρώσος Πρόεδρος Βλαντιμίρ] Πούτιν αποφάσιζε να δώσει στα ρομπότ τη δυνατότητα να δημιουργήσουν τους δικούς τους υποστόχους». Ο επιστήμονας προειδοποίησε ότι αυτό μπορεί τελικά να «δημιουργήσει υποστόχους όπως ο υποστόχος που περικλείεται στην έκφραση «πρέπει να αποκτήσω περισσότερη δύναμη»». Και πρόσθεσε: «Έχω καταλήξει στο συμπέρασμα ότι το είδος της νοημοσύνης που αναπτύσσουμε είναι πολύ διαφορετικό από τη νοημοσύνη που έχουμε.

Είμαστε βιολογικά συστήματα και αυτά είναι ψηφιακά συστήματα. Και η μεγάλη διαφορά είναι ότι με τα ψηφιακά συστήματα, έχετε πολλά αντίγραφα του ίδιου συνόλου βαρών, του ίδιου μοντέλου του κόσμου. Και όλα αυτά τα αντίγραφα μπορούν να μάθουν χωριστά, αλλά να μοιράζονται τις γνώσεις τους αμέσως. Έτσι είναι σαν να είχατε 10.000 άτομα και όποτε ένα άτομο μάθαινε κάτι, όλοι το γνώριζαν αυτόματα. Και έτσι αυτά τα chatbots μπορούν να γνωρίζουν πολύ περισσότερα από οποιοδήποτε άτομﻨ.

Διαβάστε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο