Τι θα συμβεί εάν μοντέλο τεχνητής νοημοσύνης (ΑΙ) γίνει επικίνδυνο; Μπορεί κάποιος να το κλείσει; Πόσο μεγάλος είναι ο κίνδυνος που διατρέχει η ανθρωπότητα;
Οι πιθανοί κίνδυνοι ενός μέλλοντος που θα κυριαρχείται από την τεχνητή νοημοσύνη είναι ένα καυτό θέμα, αλλά όταν οι εμπλεκόμενες εταιρείες δίνουν τέτοιες περίεργες απαντήσεις, μας κάνει να αναρρωτιόμαστε.
Η Επιτροπή Επικοινωνίας και Ψηφιακής Επιτροπής της Βουλής των Λόρδων συναντήθηκε με τον Rob Sherman, Αντιπρόεδρο Πολιτικής και Αναπληρωτή Διευθυντή Προστασίας Προσωπικών Δεδομένων για το Meta, και τον Owen Larter, διευθυντή παγκόσμιας υπεύθυνης δημόσιας πολιτικής AI στη Microsoft, για να συζητήσουν μεγάλα γλωσσικά μοντέλα και μερικά από τα ευρύτερα επιπτώσεις της τεχνητής νοημοσύνης.
Σε μια εκτεταμένη συζήτηση στην οποία ειπώθηκαν πολλά λόγια και δεν μεταφέρθηκαν πολλές πραγματικές πληροφορίες, ένα συγκεκριμένο στοιχείο τράβηξε την προσοχή μας.
Όταν ρωτήθηκε απευθείας από τον πρόεδρο της επιτροπής, βαρόνη Stowell της Beeston, σχετικά με το εάν κάποια από τις εταιρείες ήταν σε θέση να ανακαλέσει ένα μοντέλο AI εάν είχε «προσδιοριστεί ως μη ασφαλές» ή να σταματήσει την περαιτέρω ανάπτυξή του και πώς θα μπορούσε να λειτουργήσει, Ο Ρομπ Σέρμαν έδωσε μια κάπως περίεργη απάντηση:
«Νομίζω ότι εξαρτάται από το ποια είναι η τεχνολογία και πώς χρησιμοποιείται… ένα από τα πράγματα που είναι πολύ σημαντικό είναι να σκεφτούμε αυτά τα πράγματα εκ των προτέρων πριν κυκλοφορήσουν… υπάρχουν πολλά άλλα μέτρα που μπορούμε να λάβουμε, έτσι για παράδειγμα, μόλις κυκλοφορήσει ένα μοντέλο, υπάρχει πολλή δουλειά που πρέπει να κάνει αυτό που ονομάζουμε προγραμματιστής του μοντέλου, επομένως δεν υπάρχει μόνο ένας που είναι υπεύθυνος για την ανάπτυξη αυτής της τεχνολογίας…
«Όταν κυκλοφόρησε το Llama, [εμείς] δημοσιεύσαμε έναν οδηγό υπεύθυνης χρήσης που μιλά για τα βήματα που μπορεί να κάνει ένας προγραμματιστής της τεχνολογίας για να βεβαιωθεί ότι χρησιμοποιείται με ασφάλεια, και περιλαμβάνει πράγματα όπως αυτό που ονομάζουμε fine tuning, το οποίο χρειάζεται το μοντέλο και να βεβαιωθείτε ότι χρησιμοποιείται σωστά…και στη συνέχεια να φιλτράρετε τις εξόδους για να βεβαιωθείτε ότι όταν κάποιος το χρησιμοποιεί σε τελική χωρητικότητα, ότι το μοντέλο χρησιμοποιείται υπεύθυνα και προσεκτικά.”
Ο Owen Larter της Microsoft, εν τω μεταξύ, δεν απάντησε καθόλου, αν και για να είμαστε δίκαιοι η συζήτηση ήταν ευρεία και κάπως ώθησε στο χρόνο. Ανεξάρτητα, το γεγονός ότι ο εκπρόσωπος του Meta δεν απάντησε ευθέως στην ερώτηση, αλλά αντ’ αυτού έθεσε την απάντησή του σε ένα ευρύτερο σημείο σχετικά με την υπεύθυνη χρήση από άλλους δεν προκαλεί έκπληξη.
Πολλά ειπώθηκαν κατά τη διάρκεια της συζήτησης σχετικά με την ανάγκη για προσεκτικό χειρισμό μοντέλων τεχνητής νοημοσύνης και τους πιθανούς κινδύνους και ανησυχίες που μπορεί να δημιουργήσει αυτή η νέα τεχνολογία.
Ωστόσο, πέρα από μερικές συμβολικές παραχωρήσεις σε πολιτικές αναδυόμενων χρήσεων και συνεργασίες που δημιουργήθηκαν για τη συζήτηση του θέματος, η συζήτηση έγινε γρήγορα θολή καθώς και οι δύο εκπρόσωποι πάλευαν να καθορίσουν σε σημεία τι ακριβώς ήταν αυτό που συζητούσαν.