Μια πρόσφατη μελέτη από ερευνητές της Apple αποκάλυψε σημαντικούς περιορισμούς στις δυνατότητες των προηγμένων συστημάτων τεχνητής νοημοσύνης και των μεγάλων μοντέλων λογικής συλλογιστικής (LRMs).
Η ερευνητική ομάδα της Apple πρότεινε ότι αυτό μπορεί να υποδεικνύει ένα θεμελιώδες όριο στο πώς τα υπάρχοντα μοντέλα τεχνητής νοημοσύνης μπορούν να κλιμακωθούν ώστε να επιτύχουν γενική λογική σκέψη.
Τα μοντέλα αυτά, τα οποία έχουν σχεδιαστεί για να επιλύουν σύνθετα προβλήματα μέσω βήμα-βήμα συλλογιστικής, παρουσίασαν αυτό που η μελέτη ονομάζει «πλήρη κατάρρευση ακρίβειας» όταν κλήθηκαν να χειριστούν εργασίες υψηλής πολυπλοκότητας.
Ακόμα και όταν τους δόθηκε αλγόριθμος που θεωρητικά εγγυάται επιτυχία, τα μοντέλα απέτυχαν να δώσουν σωστές λύσεις.
Η μελέτη διαπίστωσε ότι τα LRMs αποδίδουν καλά σε απλές και μεσαίας δυσκολίας εργασίες, αλλά η απόδοσή τους μειώνεται απότομα καθώς αυξάνεται η πολυπλοκότητα.
Αντί να εντείνουν τη λογική τους προσπάθεια σε πιο δύσκολα προβλήματα, τα μοντέλα —παραδόξως— μείωναν τη συλλογιστική τους, οδηγώντας σε πλήρη αποτυχία.
Ειδικοί, όπως ο ερευνητής τεχνητής νοημοσύνης Gary Marcus και ο Andrew Rogoyski από το Πανεπιστήμιο του Surrey στο Ηνωμένο Βασίλειο, χαρακτήρισαν τα ευρήματα ανησυχητικά και ενδεικτικά ενός πιθανού τεχνολογικού αδιεξόδου στην ανάπτυξη της σημερινής τεχνητής νοημοσύνης.
Η μελέτη εξέτασε συστήματα από τις εταιρείες OpenAI, Google, Anthropic και DeepSeek, θέτοντας σοβαρά ερωτήματα σχετικά με το πόσο κοντά βρίσκεται η βιομηχανία στην επίτευξη της Γενικής Τεχνητής Νοημοσύνης (AGI).
Πηγή: Digwatch.com
Discover more from The Persona
Subscribe to get the latest posts sent to your email.
