Τεχνητή νοημοσύνη: Στο 80% των επιχειρήσεων έως το 2026
Πηγή Φωτογραφίας: Pixabay, «Το Generative AI έχει γίνει κορυφαία προτεραιότητα για το C-suite και έχει πυροδοτήσει τεράστια καινοτομία σε νέα εργαλεία πέρα από τα μοντέλα βάσης», δήλωσε ο Arun Chandrasekaran, διακεκριμένος αντιπρόεδρος αναλυτής της Gartner.
Η εταιρεία ερευνών προβλέπει ότι το 80% των επιχειρήσεων θα έχουν χρησιμοποιήσει API ή μοντέλα δημιουργικής AI (διεπαφές προγραμματισμού εφαρμογών) ή θα έχουν αναπτύξει δικά τους έως το 2026.
Αυτό σημαίνει ότι σε μόλις τρία χρόνια, ο αριθμός των επιχειρήσεων που υιοθετούν ή δημιουργούν μοντέλα τεχνητής νοημοσύνης θα έχει δεκαεξαπλασιαστεί, καθώς, σύμφωνα με τα στοιχεία της Gartner, λιγότερο από το 5% των επιχειρήσεων το έχουν κάνει το 2023.
«Το Generative AI έχει γίνει κορυφαία προτεραιότητα για το C-suite και έχει πυροδοτήσει τεράστια καινοτομία σε νέα εργαλεία πέρα από τα μοντέλα βάσης», δήλωσε ο Arun Chandrasekaran, διακεκριμένος αντιπρόεδρος αναλυτής της Gartner.
Η ανάλυση της εταιρείας περιέγραψε ορισμένες από τις καινοτομίες που προβλέπεται να έχουν τεράστιο αντίκτυπο στους οργανισμούς τα επόμενα δέκα χρόνια, συμπεριλαμβανομένων των παραγωγικών εφαρμογών με δυνατότητα τεχνητής νοημοσύνης, των θεμελιωδών μοντέλων και της διαχείρισης, εμπιστοσύνης, κινδύνου και ασφάλειας AI (AI TRiSM).
Οι εφαρμογές με δυνατότητα δημιουργίας τεχνητής νοημοσύνης αναφέρονται απλώς σε εφαρμογές που αξιοποιούν τη δημιουργική τεχνητή νοημοσύνη για να ολοκληρώσουν μια συγκεκριμένη εργασία. Το ChatGPT θα ήταν ένα παράδειγμα εφαρμογών με δυνατότητα δημιουργίας τεχνητής νοημοσύνης, καθώς χρησιμοποιεί τεχνητή νοημοσύνη για να συνθέσει τα μηνύματα κειμένου και να δώσει μια απάντηση.
Οι οργανισμοί μπορούν να υιοθετήσουν αυτές τις εφαρμογές για να διευκολύνουν την εργασία εσωτερικά για τους εργαζόμενους ή να προσφέρουν εμπειρίες στους πελάτες που βελτιώνουν τις υπηρεσίες τους και την εμπειρία του πελάτη.
«Το πιο κοινό μοτίβο για δυνατότητες ενσωματωμένες στο GenAI σήμερα είναι το text-to-X, το οποίο εκδημοκρατίζει την πρόσβαση των εργαζομένων, σε ό,τι ήταν παλαιότερα εξειδικευμένες εργασίες, μέσω άμεσης μηχανικής με χρήση φυσικής γλώσσας», αναφέρει ο Chandrasekaran στην έκθεση.
Ένα χαρακτηριστικό παράδειγμα είναι ο αυξανόμενος αριθμός συμβουλευτικών εταιρειών που είτε υιοθετούν είτε αναπτύσσουν τα δικά τους μοντέλα τεχνητής νοημοσύνης για να διευκολύνουν τους πελάτες να βρίσκουν τους πόρους που χρειάζονται από τις τεράστιες βάσεις δεδομένων της εταιρείας.
Το πρόβλημα των «παραισθήσεων»
Μια πρόκληση με αυτές τις εφαρμογές είναι ότι είναι επιρρεπείς σε «παραισθήσεις» και ανακριβείς απαντήσεις που κάνουν αμφισβητήσιμη την αξιοπιστία τους.
Τα βασικά μοντέλα αναφέρονται στα μοντέλα μηχανικής εκμάθησης που αποτελούν τη βάση των δημιουργικών εφαρμογών AI, για παράδειγμα, τι είναι το GPT για το ChatGPT.
Αυτά τα μοντέλα θεμελίωσης εκπαιδεύονται σε μεγάλους όγκους δεδομένων και χρησιμοποιούνται για την τροφοδοσία διαφορετικών εφαρμογών που μπορούν να ολοκληρώσουν μια μεγάλη ποικιλία εργασιών.
Η Gartner τοποθέτησε τα μοντέλα θεμελίωσης στο Peak of Inflated Expectations on the Hype Cycle, προβλέποντας ότι έως το 2027, θα υποστηρίξουν το 60% των περιπτώσεων χρήσης της επεξεργασίας φυσικής γλώσσας (NLP).
«Οι ηγέτες της τεχνολογίας θα πρέπει να ξεκινήσουν με μοντέλα με υψηλή ακρίβεια στους πίνακες κατάταξης επιδόσεων, αυτά που έχουν ανώτερη υποστήριξη οικοσυστήματος και διαθέτουν επαρκή προστατευτικά κιγκλιδώματα για την ασφάλεια και το απόρρητο», δήλωσε ο Chandrasekaran.
Τέλος, το AI TRiSM αναφέρεται στο σύνολο λύσεων που μπορούν να αντιμετωπίσουν τα ζητήματα που περιβάλλουν τα μοντέλα παραγωγής τεχνητής νοημοσύνης και να εξασφαλίσουν την επιτυχή ανάπτυξή τους.
Οι κίνδυνοι
Μερικοί κίνδυνοι που μαστίζουν τα μοντέλα τεχνητής νοημοσύνης που δημιουργούνται είναι η αξιοπιστία, η παραπληροφόρηση, η μεροληψία, το απόρρητο και η δικαιοσύνη.
Εάν δεν αντιμετωπιστούν σωστά, αυτά τα ζητήματα μπορεί να είναι ιδιαίτερα επιζήμια για τους οργανισμούς, καθώς κινδυνεύουν με τη διαρροή ευαίσθητων δεδομένων και τη διάδοση παραπληροφόρησης σε έναν οργανισμό.
«Οι οργανισμοί που δεν διαχειρίζονται με συνέπεια κινδύνους τεχνητής νοημοσύνης τείνουν εκθετικά να βιώσουν δυσμενή αποτελέσματα, όπως αποτυχίες και παραβιάσεις έργων», δήλωσε ο Chandrasekaran.
Το AI TRiSM είναι επομένως ζωτικής σημασίας για τους οργανισμούς να ελαχιστοποιούν αυτούς τους κινδύνους και να προστατεύουν τα μέλη του οργανισμού τους.
Διαβάστε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο
Το σχόλιο σας