«Μην εμπιστεύεστε τυφλά ό,τι σας λέει η τεχνητή νοημοσύνη»
Τι λέει ο διευθύνων σύμβουλος της Google Sundar Pichai
«Οι άνθρωποι δεν πρέπει να εμπιστεύονται τυφλά ό,τι τους λένε τα εργαλεία τεχνητής νοημοσύνης», δήλωσε ο διευθύνων σύμβουλος της Alphabet, μητρικής εταιρείας της Google, στο BBC. Σε μια αποκλειστική συνέντευξη, ο διευθύνων σύμβουλος Sundar Pichai είπε ότι «τα μοντέλα τεχνητής νοημοσύνης είναι επιρρεπή σε λάθη» και προέτρεψε τους ανθρώπους να τα χρησιμοποιούν παράλληλα με άλλα εργαλεία.
Ο Sundar Pichai είπε ότι αυτό υπογραμμίζει τη σημασία της ύπαρξης ενός πλούσιου οικοσυστήματος πληροφοριών, αντί της αποκλειστικής εξάρτησης από την τεχνολογία τεχνητής νοημοσύνης.
«Αυτός είναι ο λόγος για τον οποίο οι άνθρωποι χρησιμοποιούν επίσης την αναζήτηση Google, και διαθέτουμε άλλα προϊόντα που βασίζονται περισσότερο στην παροχή ακριβών πληροφοριών», σημείωσε ο Sundar Pichai.
Ωστόσο, ορισμένοι ειδικοί υποστηρίζουν ότι οι μεγάλες εταιρείες τεχνολογίας, όπως η Google, δεν πρέπει να καλούν τους χρήστες να επαληθεύουν τα αποτελέσματα των εργαλείων τους, αλλά πρέπει να επικεντρωθούν στην αύξηση της αξιοπιστίας των συστημάτων τους.
Ενώ τα εργαλεία τεχνητής νοημοσύνης ήταν χρήσιμα «αν θέλετε να γράψετε κάτι δημιουργικό», ο Sundar Pichai είπε ότι οι άνθρωποι «πρέπει να μάθουν να χρησιμοποιούν αυτά τα εργαλεία για αυτό που κάνουν καλά και να μην εμπιστεύονται τυφλά όλα όσα λένε».
«Είμαστε περήφανοι για τον όγκο της εργασίας που καταβάλλουμε για να παρέχουμε όσο το δυνατόν πιο ακριβείς πληροφορίες, αλλά η τρέχουσα τεχνολογία τεχνητής νοημοσύνης είναι επιρρεπής σε ορισμένα σφάλματα», υπογράμμισε ο Sundar Pichai.
Αποποιείται την ευθύνη για λάθη
Η εταιρεία εμφανίζει δηλώσεις αποποίησης ευθύνης στα εργαλεία τεχνητής νοημοσύνης της, ώστε να ενημερώνει τους χρήστες ότι ενδέχεται να κάνουν λάθη. Ωστόσο, αυτό δεν την έχει προστατεύσει από κριτικές και ανησυχίες σχετικά με λάθη που έχουν γίνει από τα ίδια τα προϊόντα της. Η κυκλοφορία του AI Overviews της Google, που συνοψίζει τα αποτελέσματα αναζήτησης, αμαυρώθηκε από κριτική και χλευασμό για ορισμένες ασταθείς και ανακριβείς απαντήσεις.
Η τάση των γενετικών προϊόντων τεχνητής νοημοσύνης, όπως τα chatbots, να μεταδίδουν παραπλανητικές ή ψευδείς πληροφορίες, αποτελεί αιτία ανησυχίας μεταξύ των ειδικών. Τι είναι η τεχνητή νοημοσύνη, πώς λειτουργεί και γιατί ορισμένοι ανησυχούν για αυτήν;
«Γνωρίζουμε ότι αυτά τα συστήματα επινοούν απαντήσεις και ότι τις επινοούν για να μας ευχαριστήσουν – και αυτό είναι πρόβλημα», δήλωσε η Gina Neff, καθηγήτρια υπεύθυνης τεχνητής νοημοσύνης στο Queen Mary University του Λονδίνου, στο πρόγραμμα Today του BBC Radio 4.
«Δεν υπάρχει πρόβλημα αν ρωτάω «ποια ταινία να δω μετά», αλλά είναι εντελώς διαφορετικό αν κάνω πολύ ευαίσθητες ερωτήσεις σχετικά με την υγεία μου, την ψυχική μου ευεξία, την επιστήμη, τις ειδήσεις», είπε. Προέτρεψε επίσης την Google να αναλάβει μεγαλύτερη ευθύνη για τα προϊόντα τεχνητής νοημοσύνης της και την ακρίβειά τους, αντί να μεταφέρει αυτή την ευθύνη στους καταναλωτές.
«Η εταιρεία ζητά τώρα να βαθμολογήσει τα ίδια τα διαγώνισματά της, ενώ ταυτόχρονα καταστρέφει το σχολείο», δήλωσε.
«Μια νέα φάση»
Ο κόσμος της τεχνολογίας αναμένει την τελευταία έκδοση του μοντέλου τεχνητής νοημοσύνης της Google για καταναλωτές, το Gemini 3.0, το οποίο αρχίζει να κερδίζει ξανά μερίδιο αγοράς από το ChatGPT. Από τον Μάιο του τρέχοντος έτους, η Google άρχισε να εισάγει μια νέα «Λειτουργία τεχνητής νοημοσύνης» στην αναζήτησή της, ενσωματώνοντας το chatbot Gemini, το οποίο έχει ως στόχο να προσφέρει στους χρήστες την εμπειρία της συνομιλίας με έναν ειδικό.
Την εποχή εκείνη, ο Sundar Pichai δήλωσε ότι η ενσωμάτωση του Gemini στην αναζήτηση σηματοδοτούσε μια «νέα φάση της μετάβασης στην πλατφόρμα τεχνητής νοημοσύνης».
Η κίνηση αυτή αποτελεί επίσης μέρος της προσπάθειας του τεχνολογικού γίγαντα να παραμείνει ανταγωνιστικός έναντι υπηρεσιών τεχνητής νοημοσύνης όπως το ChatGPT, οι οποίες απειλούν την κυριαρχία της Google στον τομέα της διαδικτυακής αναζήτησης.
Τα σχόλιά του επιβεβαιώνουν έρευνα της BBC από τις αρχές του έτους, η οποία διαπίστωσε ότι τα chatbots τεχνητής νοημοσύνης συνοψίζουν ανακριβώς τις ειδήσεις.
Στα ChatGPT της OpenAI, Copilot της Microsoft, Gemini της Google και Perplexity AI δόθηκε περιεχόμενο από τον ιστότοπο της BBC και τέθηκαν ερωτήσεις σχετικά με αυτό, και η έρευνα διαπίστωσε ότι οι απαντήσεις της τεχνητής νοημοσύνης περιείχαν «σημαντικές ανακρίβειες».
Στην συνέντευξή του στο BBC, Sundar Pichai δήλωσε ότι υπάρχει μια ένταση μεταξύ του ρυθμού ανάπτυξης της τεχνολογίας και του τρόπου με τον οποίο ενσωματώνονται τα μέτρα μετριασμού για την πρόληψη πιθανών επιβλαβών επιπτώσεων. Για την Alphabet, ο Sundar Pichai δήλωσε ότι η διαχείριση αυτής της έντασης σημαίνει να είσαι «τολμηρός και υπεύθυνος ταυτόχρονα».
«Γι' αυτό προχωράμε γρήγορα σε αυτή τη φάση. Νομίζω ότι οι καταναλωτές μας το απαιτούν», είπε. «Ο τεχνολογικός γίγαντας έχει επίσης αυξήσει τις επενδύσεις του στην ασφάλεια της τεχνητής νοημοσύνης ανάλογα με τις επενδύσεις του στην τεχνητή νοημοσύνη», πρόσθεσε ο Sundar Pichai. «Για παράδειγμα, διαθέτουμε τεχνολογία ανοιχτού κώδικα που θα σας επιτρέπει να ανιχνεύετε εάν μια εικόνα έχει δημιουργηθεί από τεχνητή νοημοσύνη», είπε ο Sundar Pichai.