Από τα πρώτα πειράματα σε πανεπιστήμια μέχρι τα σημερινά μοντέλα, η εξέλιξη της τεχνητής νοημοσύνης έχει συμπυκνώσει δεκαετίες προόδου σε ελάχιστα χρόνια. Σε ορισμένες στιγμές, η πραγματικότητα θυμίζει επεισόδιο του Black Mirror. Όχι γιατί οι τεχνολογίες που βλέπουμε στην οθόνη είναι μακρινές φαντασίες, αλλά γιατί πολλές από αυτές δοκιμάζονται ήδη σε εργαστήρια και πιλοτικά προγράμματα. Σ’ αυτό το περιβάλλον, η κυκλοφορία του GPT-5 από την OpenAI αποτέλεσε μία από τις πιο πρόσφατες εξελίξεις. Ωστόσο, όπως διευκρίνισε ο CEO της, Sam Altman, το μοντέλο αυτό δεν έχει φτάσει ακόμη το επίπεδο που η ίδια η εταιρεία ορίζει ως Artificial General Intelligence (AGI).
Η AGI αποτελεί έναν από τους πιο φιλόδοξους στόχους στον τομέα της τεχνητής νοημοσύνης. Σε αντίθεση με τα σημερινά συστήματα, που είναι εξαιρετικά ικανά σε ορισμένες εργασίες αλλά περιορισμένα εκτός αυτών, η AGI θα μπορεί να μαθαίνει συνεχώς, να προσαρμόζεται σε νέα δεδομένα και να συνδυάζει γνώσεις από διαφορετικά πεδία, με ευελιξία παρόμοια με του ανθρώπινου νου. Το βασικό έλλειμμα που εντοπίζεται στα τρέχοντα μοντέλα είναι η αδυναμία τους να εξελίσσουν τη γνώση τους όσο χρησιμοποιούνται. Σήμερα, τα LLMs εκπαιδεύονται μέχρι μια συγκεκριμένη χρονική στιγμή και παραμένουν στατικά, χωρίς μηχανισμό αυτόνομης μάθησης από τον πραγματικό κόσμο.
Η ακριβής στιγμή που θα φτάσουμε στην AGI δεν μπορεί να υπολογιστεί με ακρίβεια. Ορισμένοι ερευνητές, όπως ο Yann LeCun της Meta, θεωρούν ότι μπορεί να χρειαστούν αρκετές δεκαετίες. Άλλοι, παρατηρώντας την επιτάχυνση της προόδου, εκτιμούν ότι είναι πιθανό να εμφανιστεί πολύ νωρίτερα, ακόμη και μέσα στην επόμενη δεκαετία. Στοιχεία από την ετήσια αναφορά AI Index του Stanford δείχνουν ότι η επιστημονική κοινότητα είναι διχασμένη, με εκτιμήσεις που κυμαίνονται από το 2030 έως το 2075 για την επίτευξη μιας λειτουργικής AGI. Παρά τις διαφορές στις προβλέψεις, υπάρχει συναίνεση πως η μετάβαση θα απαιτήσει τεχνολογικά άλματα και ισχυρή ερευνητική συνεργασία.
Ένα από τα μεγαλύτερα τεχνικά εμπόδια είναι η υλοποίηση της έννοιας του continual learning, δηλαδή της συνεχούς μάθησης που δεν «σβήνει» προηγούμενες γνώσεις. Σήμερα, η ενσωμάτωση νέων δεδομένων απαιτεί εκ νέου εκπαίδευση σε τεράστιες υποδομές, κάτι που είναι ακριβό, ενεργοβόρο και χρονοβόρο. Η ανάπτυξη μοντέλων που θα μπορούν να μαθαίνουν από την αλληλεπίδραση με το περιβάλλον τους, χωρίς να χάνουν την ακρίβεια και τη σταθερότητά τους, θεωρείται απαραίτητη προϋπόθεση για την AGI. Αυτό προϋποθέτει νέες αρχιτεκτονικές και καινοτόμους αλγορίθμους εκπαίδευσης.
Στο μεταξύ, πειραματικά έργα από πανεπιστήμια και εταιρείες δείχνουν μικρές «προγευσεις» αυτής της ικανότητας. Συστήματα ρομποτικής που μαθαίνουν νέες κινήσεις παρακολουθώντας βίντεο, αλγόριθμοι που βελτιώνουν την απόδοσή τους απλώς αλληλεπιδρώντας με χρήστες και προγράμματα που προσαρμόζουν τη στρατηγική τους σε πραγματικό χρόνο, δείχνουν ότι η τεχνολογία μπορεί να πλησιάσει την αυτονομία που απαιτεί η AGI. Παρά τις τεχνικές προκλήσεις, αυτά τα παραδείγματα επιβεβαιώνουν ότι η κατεύθυνση της έρευνας μετακινείται από τα στατικά μοντέλα σε πιο «ζωντανά» συστήματα, ικανά να εξελίσσονται μαζί με τον κόσμο γύρω τους.
Η τεχνολογική υποδομή που θα στηρίξει την AGI βρίσκεται ήδη υπό ανάπτυξη. Νευρομορφικοί επεξεργαστές, που μιμούνται τον τρόπο λειτουργίας του ανθρώπινου εγκεφάλου, υβριδικά μοντέλα που συνδυάζουν νευρωνικά δίκτυα με συμβολική λογική και πιο αποδοτικοί αλγόριθμοι εκπαίδευσης, δοκιμάζονται ήδη σε κορυφαία ερευνητικά κέντρα. Στον τομέα της ρομποτικής, νέα συστήματα αισθητήρων επιτρέπουν στις μηχανές να αντιλαμβάνονται τον φυσικό κόσμο με μεγαλύτερη ακρίβεια, ανοίγοντας τον δρόμο για φυσική αλληλεπίδραση με το περιβάλλον σε πραγματικό χρόνο. Αυτές οι εξελίξεις αποτελούν τα δομικά υλικά της μελλοντικής AGI.
Η ανάπτυξη της AGI δεν αφορά μόνο την τεχνολογία, αλλά και τον τρόπο που αυτή θα ενταχθεί στην κοινωνία. Θέματα ασφάλειας, διαφάνειας και ευθυγράμμισης με ανθρώπινες αξίες βρίσκονται στο επίκεντρο της συζήτησης. Ο κίνδυνος κακόβουλης χρήσης, η προστασία των δεδομένων και η ανάγκη για διεθνείς κανόνες λειτουργίας απασχολούν ερευνητές και κυβερνήσεις. Η εμπειρία προηγούμενων τεχνολογικών επαναστάσεων δείχνει ότι η κοινωνική αποδοχή έρχεται όταν οι πολίτες αισθάνονται πως η τεχνολογία είναι υπό έλεγχο και προσφέρει σαφές όφελος.
Αν κάτι μας έχει μάθει το Black Mirror, είναι ότι η τεχνολογία δεν γίνεται επικίνδυνη από μόνη της, αλλά μέσα από τις επιλογές των ανθρώπων. Πολλά από τα σενάρια της σειράς βασίζονται σε τεχνολογίες που ήδη αναπτύσσονται, από συστήματα που προσαρμόζουν το περιεχόμενο στις προτιμήσεις μας, μέχρι την πλήρη εικονική αναπαράσταση προσώπων. Η AGI, αν και πολύ πιο ισχυρή, θα υπόκειται στους ίδιους νόμους: η χρήση της θα κριθεί από το πλαίσιο που θα δημιουργήσουμε γύρω της. Η ισορροπία ανάμεσα στην καινοτομία και τον έλεγχο θα είναι καθοριστική.
Διαβάστε επίσης: Χωρίς συνδρομή το Gemini στον Chrome
ΠΗΓΗ: Digital Life
Δείτε το πλήρες άρθρο εδώ.