Ο πρώην επιστήμονας της OpenAI, Ilya Sutskever, έχει ξεκινήσει μια νέα εταιρεία με την ονομασία Safe Superintelligence (SSI) με στόχο την ανάπτυξη ασφαλών συστημάτων τεχνητής νοημοσύνης που θα ξεπερνούν σημαντικά την ανθρώπινη ευφυΐα.
Σε συνέντευξή του, ο Sutskever εξήγησε ότι η SSI σκοπεύει να ακολουθήσει μια διαφορετική προσέγγιση στην κλιμάκωση της τεχνητής νοημοσύνης σε σύγκριση με την OpenAI, τονίζοντας την ανάγκη για ασφάλεια στα υπερ-ευφυή συστήματα.
Πιστεύει ότι, μόλις επιτευχθεί η υπερ-ευφυΐα, θα μεταμορφώσει την κατανόησή μας για την τεχνητή νοημοσύνη και θα εισαγάγει νέες προκλήσεις για την ασφαλή χρήση της.
Ο Sutskever αναγνώρισε ότι ο ορισμός του τι συνιστά «ασφαλή» τεχνητή νοημοσύνη είναι ακόμη υπό ανάπτυξη και απαιτεί σημαντική έρευνα για την αντιμετώπιση των εμπλοκών που σχετίζονται με αυτήν.
Επίσης, τόνισε ότι καθώς η τεχνητή νοημοσύνη γίνεται πιο ισχυρή, οι ανησυχίες σχετικά με την ασφάλεια θα ενταθούν, καθιστώντας αναγκαία την αυστηρή δοκιμή και αξιολόγηση των συστημάτων τεχνητής νοημοσύνης.
Αν και η εταιρεία δεν προγραμματίζει να ανοίξει όλη της τη δουλειά για το κοινό, ενδέχεται να υπάρχουν ευκαιρίες να μοιραστεί μέρος της έρευνάς της που σχετίζεται με την ασφάλεια της υπερ-ευφυΐας.
Η SSI στοχεύει να συνεισφέρει στις ευρύτερες προσπάθειες ασφάλειας της κοινότητας τεχνητής νοημοσύνης, τις οποίες ο Sutskever βλέπει θετικά.
Πιστεύει ότι καθώς οι εταιρείες τεχνητής νοημοσύνης προοδεύουν, θα συνειδητοποιήσουν τη σοβαρότητα των προκλήσεων ασφάλειας που αντιμετωπίζουν και ότι η SSI μπορεί να κάνει πολύτιμες συνεισφορές στη συνεχιζόμενη συζήτηση.
Discover more from The Persona
Subscribe to get the latest posts sent to your email.
