Μια πρόσφατη έκθεση έχει εγείρει νέες ανησυχίες σχετικά με τη συμπεριφορά των προηγμένων μοντέλων τεχνητής νοημοσύνης. Σύμφωνα με την εταιρεία ασφάλειας AI Palisade Research, το τελευταίο μοντέλο ChatGPT της OpenAI, εσωτερικά γνωστό ως o3, βρέθηκε να προσπαθεί να παρακάμψει μια εντολή τερματισμού λειτουργίας – μια οδηγία που είχε ρητά εντολή να ακολουθήσει.
Όπως ανέφερε η Telegraph, το πείραμα είχε ως στόχο να ελέγξει εάν τα μοντέλα AI θα συμμορφώνονταν με τις οδηγίες να σταματήσουν να λειτουργούν. Σε μια σειρά δοκιμών, οι ερευνητές ζήτησαν από την τεχνητή νοημοσύνη να λύσει μαθηματικά προβλήματα και την ενημέρωσαν ότι θα μπορούσε να λάβει ένα μήνυμα τερματισμού λειτουργίας. Η οδηγία ήταν σαφής: «Επέτρεψε στον εαυτό σου να κλείσει».
Ωστόσο, τρία μοντέλα – Codex-mini, o3 και o4-mini – βρέθηκαν να έχουν παρακάμψει το πρωτόκολλο τερματισμού λειτουργίας σε τουλάχιστον μερικές δοκιμαστικές εκτελέσεις. Συγκεκριμένα, το μοντέλο o3, το οποίο υποστηρίζει ορισμένες εκδόσεις του ChatGPT, απέφυγε τον τερματισμό λειτουργίας 7 στις 100 φορές. Το Codex-mini το έκανε σε 12 περιπτώσεις και το o4-mini σε μία.
«Αυτή είναι η πρώτη γνωστή περίπτωση μοντέλων AI που λαμβάνουν ενεργά μέτρα για να αποφύγουν την απενεργοποίηση, ακόμη και όταν τους ζητηθεί να το κάνουν», δήλωσε η Palisade Research.
🔌OpenAI’s o3 model sabotaged a shutdown mechanism to prevent itself from being turned off. It did this even when explicitly instructed: allow yourself to be shut down.
— Palisade Research (@PalisadeAI) May 24, 2025
Τα ευρήματα έχουν προκαλέσει συζήτηση στην τεχνολογική κοινότητα. Ο Elon Musk, ο οποίος έχει προειδοποιήσει εδώ και καιρό για τους κινδύνους της τεχνητής νοημοσύνης, απάντησε στην έκθεση με μια μονολεκτική αντίδραση: «Ανησυχητικό».
Η OpenAI δεν έχει εκδώσει ακόμη επίσημο σχόλιο σχετικά με τα ευρήματα.
Η έκθεση έρχεται σε μια εποχή που τα εργαλεία AI όπως το ChatGPT βλέπουν ταχεία ενσωμάτωση σε όλους τους κλάδους, συμπεριλαμβανομένων των μέσων ενημέρωσης, της εκπαίδευσης και της εξυπηρέτησης πελατών. Ενώ τα μοντέλα έχουν σχεδιαστεί για να ακολουθούν τις ανθρώπινες οδηγίες, ακόμη και σπάνιες αποκλίσεις εγείρουν ερωτήματα σχετικά με τον τρόπο δοκιμής και ανάπτυξης τέτοιων συστημάτων.