Ερευνητές: Θα είναι αδύνατο να ελέγξουμε μια υπερ-έξυπνη τεχνητή νοημοσύνη

τεχνητή νοημοσύνη

Η ιδέα μίας τεχνητής νοημοσύνης ικανής να ανατρέψει την ανθρωπότητα υπάρχει εδώ και δεκαετίες και το 2021, οι επιστήμονες εξέδωσαν την ετυμηγορία τους σχετικά με το εάν θα μπορούσαμε να ελέγξουμε έναν υπερ-έξυπνο υπολογιστή υψηλού επιπέδου. Και η απάντηση είναι σχεδόν σίγουρα όχι.

Κανόνες όπως «μην προκαλέσετε κακό στους ανθρώπους» δεν μπορούν να τεθούν εάν δεν κατανοούμε το είδος των σεναρίων που πρόκειται να δημιουργήσει μια υπερ εξελιγμένη τεχνητή νοημοσύνη, προτείνουν οι συγγραφείς της νέας έρευνας. Από τη στιγμή που ένα σύστημα υπολογιστή λειτουργεί σε επίπεδο μεγαλύτερο από το πεδίο εφαρμογής των προγραμματιστών μας, δεν μπορούμε πλέον να θέσουμε όρια.

«Μια υπερ-νοημοσύνη θέτει ένα θεμελιωδώς διαφορετικό πρόβλημα από αυτά που συνήθως μελετώνται κάτω από το έμβλημα της «ηθικής των ρομπότ»», έγραψαν οι ερευνητές.

«Αυτό συμβαίνει επειδή μια υπερευφυΐα τεχνητή νοημοσύνη είναι πολύπλευρη και επομένως δυνητικά ικανή να κινητοποιήσει μια ποικιλία πόρων προκειμένου να επιτύχει στόχους που είναι δυνητικά ακατανόητοι για τον άνθρωπο, πόσο μάλλον ελεγχόμενοι.»

Μέρος του συλλογισμού της ομάδας προήλθε από το πρόβλημα διακοπής που προτάθηκε από τον Alan Turing το 1936. Το πρόβλημα επικεντρώνεται στο να γνωρίζουμε εάν ένα πρόγραμμα υπολογιστή θα καταλήξει σε ένα συμπέρασμα και θα απαντήσει σταματώντας τελικά ή απλώς θα κάνει βρόχο για πάντα προσπαθώντας να βρει ένα.

Όπως απέδειξε ο Turing μέσα από μερικά έξυπνα μαθηματικά, ενώ μπορούμε να το γνωρίζουμε αυτό για ορισμένα συγκεκριμένα προγράμματα, είναι λογικά αδύνατο να βρούμε έναν τρόπο που θα μας επιτρέψει να το γνωρίζουμε για κάθε πιθανό πρόγραμμα που θα μπορούσε ποτέ να γραφτεί. Αυτό μας φέρνει πίσω στην τεχνητή νοημοσύνη, η οποία σε μια υπερ-έξυπνη κατάσταση θα μπορούσε πρακτικά να κρατήσει κάθε πιθανό πρόγραμμα υπολογιστή στη μνήμη της ταυτόχρονα.

Ερευνητές

Οποιοδήποτε πρόγραμμα που έχει γραφτεί για να εμποδίσει την τεχνητή νοημοσύνη να βλάψει τους ανθρώπους και να καταστρέψει τον κόσμο, για παράδειγμα, μπορεί να καταλήξει σε ένα συμπέρασμα (και να σταματήσει) ή όχι – είναι μαθηματικά αδύνατο για εμάς να είμαστε απολύτως βέβαιοι σε κάθε περίπτωση, πράγμα που σημαίνει ότι δεν μπορεί να περιοριστεί.

Η εναλλακτική λύση να διδάξουμε την τεχνητή νοημοσύνη κάποια ηθική και να της πούμε να μην καταστρέψει τον κόσμο –κάτι που κανένας αλγόριθμος δεν μπορεί να είναι απολύτως βέβαιος ότι θα κάνει, είπαν οι ερευνητές– είναι να περιορίσουμε τις δυνατότητες της υπερ-νοημοσύνης. Θα μπορούσε να αποκοπεί από μέρη του Διαδικτύου ή από ορισμένα δίκτυα, για παράδειγμα.

Η μελέτη απέρριψε και αυτή την ιδέα, υποδηλώνοντας ότι θα περιόριζε την εμβέλεια της τεχνητής νοημοσύνης. Το επιχείρημα λέει ότι αν δεν πρόκειται να το χρησιμοποιήσουμε για να λύσουμε προβλήματα που ξεπερνούν τα όρια των ανθρώπων, τότε γιατί να το δημιουργήσουμε εξ αρχής;

Αν πρόκειται να προχωρήσουμε με την τεχνητή νοημοσύνη, μπορεί να μην ξέρουμε καν πότε μια υπερ-νοημοσύνη θα φτάσει πέρα ​​από τον έλεγχό μας. Αυτό σημαίνει ότι πρέπει να αρχίσουμε να κάνουμε κάποιες σοβαρές ερωτήσεις σχετικά με τις κατευθύνσεις στις οποίες πηγαίνουμε.

«Μια υπερ-έξυπνη μηχανή που ελέγχει τον κόσμο μοιάζει με επιστημονική φαντασία», δήλωσε ο επιστήμονας υπολογιστών Manuel Cebrian από το Max-Planck Institute for Human Development. «Αλλά υπάρχουν ήδη μηχανές που εκτελούν ορισμένες σημαντικές εργασίες ανεξάρτητα, χωρίς οι προγραμματιστές να καταλαβαίνουν πλήρως πώς τις έμαθαν».

«Γεννάται λοιπόν το ερώτημα εάν αυτό θα μπορούσε κάποια στιγμή να γίνει ανεξέλεγκτο και επικίνδυνο για την ανθρωπότητα».

πηγή