Θα Μπορεί να Ελεγχθεί η Τεχνητή Νοημοσύνη στο Μέλλον;

Θα Μπορεί να Ελεγχθεί η Τεχνητή Νοημοσύνη στο Μέλλον;
του Γιώργου Κάτσου*
Σαβ, 21 Ιουνίου 2025 - 13:35

Όταν το ChatGPT 3.5 κυκλοφόρησε στα τέλη του 2022, η κοινωνία βρέθηκε ξαφνικά μπροστά σε μια πρωτόγνωρη μορφή «έξυπνου συνομιλητή». Το εργαλείο μπορούσε να απαντά, να γράφει, να συνοψίζει και να παράγει κείμενο με εντυπωσιακή φυσικότητα. Για πολλούς ήταν η αρχή μιας τεχνολογικής επανάστασης, με έντονο όμως το ερώτημα κατά πόσο καταλαβαίνει στ’ αλήθεια το AI. Είναι νοήμων οργανισμός ή απλώς μιμείται;

Το πρώτο κύμα ενθουσιασμού βασίστηκε στο γεγονός ότι το ChatGPT 3.5 μπορούσε να παράγει ως τεχνητή νοημοσύνη άψογο κείμενο σε ανθρώπινο ύφος, να μιλάει για ιστορία, επιστήμη, καθημερινότητα, ακόμα και να γράφει ποίηση. Η εικόνα ήταν σχεδόν μαγική. Πολύ γρήγορα, όμως, φάνηκαν τα όρια της μίμησης: Το bot έκανε λάθη εκεί που απαιτούνταν λογική, συχνά «παραληρούσε» όταν έβγαινε από τα συνηθισμένα πλαίσια, και πολλές φορές απαντούσε με αυτοπεποίθηση σε πράγματα που δεν είχε κατανοήσει. Το κοινό συνειδητοποίησε ότι κάτω από την επιφάνεια του “έξυπνου παπαγάλου” κρυβόταν η απουσία εσωτερικής λογικής και εμπειρίας.

Σήμερα, δυόμισι χρόνια μετά, η τεχνολογία έχει κάνει άλματα. Τα LLMs (Large Language Models) έχουν γίνει πιο συνεκτικά, μπορούν να “κρατούν” μεγαλύτερο πλαίσιο συνομιλίας και να αποφεύγουν χοντροκομμένα λάθη που χαρακτήριζαν τις προηγούμενες εκδόσεις τους. Ποσοτικά, η βελτίωση είναι τεράστια. Ποιοτικά όμως, αφήνεται να αιωρείται το ερώτημα εάν όντως διαθέτουν το στοιχείο της εγγενούς κατανόησης. Η απάντηση, σύμφωνα με ειδήμονες του χώρου αλλά και απλούς χρήστες που έχουν αφιερώσει πολλές ώρες χρήσης, είναι ένα περίτρανο ΄’όχι’. Παρά τα τεράστια άλματα στην ικανότητα παραγωγής και στην λογική επεξεργασία του λόγου, τα LLMs στην ουσία ακόμα παραμένουν στείρες μηχανές πρόβλεψης .

Ορισμένοι ερευνητές υποστηρίζουν ότι στα σύγχρονα LLMs αρχίζουν να εμφανίζονται ικανότητες και λειτουργίες που δεν έχουν προγραμματιστεί ρητά, αλλά αναδύονται αυθόρμητα καθώς το μοντέλο τεχνητής νοημοσύνης αυξάνεται σε μέγεθος και πολυπλοκότητα, όπως η επίλυση προβλημάτων ή η λήψη αποφάσεων με στοιχειώδη λογική συνοχή. Ωστόσο, ακόμη και οι υποστηρικτές αυτής της ιδέας παραδέχονται πως δεν υπάρχει πίσω από αυτές εσωτερική κατανόηση παρά μόνο μια στατιστική ψευδαίσθηση νοημοσύνης (τρικ των μοντέλων), που παράγει απαντήσεις που φαίνονται έξυπνες, χωρίς όμως να είναι αποτέλεσμα αληθινού στοχασμού.

(η συνέχεια στο slpress.gr)

*Ο Γιώργος Κάτσος είναι πρώην στέλεχος της Πολεμικής Αεροπορίας, υπεύθυνος σε θέματα πληροφοριών και στρατιωτικών υποδομών.

Ακολουθήστε το energia.gr στο Google News!Παρακολουθήστε τις εξελίξεις με την υπογραφη εγκυρότητας του energia.gr

Διαβάστε ακόμα