Ο επικεφαλής συστημάτων ασφαλείας της OpenAI, Γιοχάνες Χάιντεκε, έκανε τον ισχυρισμό σε συνέντευξή του στο Axios , λέγοντας ότι αναμένει ότι τα επερχόμενα μοντέλα της θα ενεργοποιήσουν αυτό που είναι γνωστό ως «ταξινόμηση υψηλού κινδύνου» στο πλαίσιο ετοιμότητας της εταιρείας – ένα σύστημα που έχει δημιουργήσει για την αξιολόγηση των κινδύνων που θέτει η Τεχνητή Νοημοσύνη.
Είπε στον Axios ότι αναμένει «μερικοί από τους διαδόχους του μοντέλου συλλογισμού o3 να φτάσουν σε αυτό το επίπεδο».
Η OpenAI ανέφερε σε μια ανάρτηση ιστολογίου ότι έχει επιταχύνει τις δοκιμές ασφαλείας της για να προσπαθήσει να μετριάσει τον κίνδυνο κατάχρησης των μοντέλων της από κάποιον που θέλει να δημιουργήσει βιολογικά όπλα. Παραδέχεται ότι ανησυχεί ότι, εκτός εάν θεσπιστούν κατάλληλα συστήματα μετριασμού, τα μοντέλα της θα μπορούσαν να γίνουν ικανά για «ανάπτυξη αρχάριων», επιτρέποντας σε άτομα με περιορισμένες μόνο επιστημονικές γνώσεις να δημιουργήσουν θανατηφόρα όπλα.
Ο Χάιντεκε είπε ότι η OpenAI δεν ανησυχεί ότι η Τεχνητή Νοημοσύνη μπορεί να χρησιμοποιηθεί για τη δημιουργία όπλων που είναι εντελώς άγνωστα ή δεν έχουν υπάρξει πριν, αλλά για τη δυνατότητα αναπαραγωγής ορισμένων από τα πράγματα με τα οποία οι επιστήμονες είναι ήδη πολύ εξοικειωμένοι.
Μία από τις προκλήσεις που αντιμετωπίζει η εταιρεία είναι ότι, ενώ ορισμένα από τα μοντέλα της έχουν τη δυνατότητα να ξεκλειδώσουν νέες ιατρικές ανακαλύψεις, η ίδια βάση γνώσεων θα μπορούσε επίσης να χρησιμοποιηθεί για να προκαλέσει βλάβη. Ο Heidecke είπε ότι ο μόνος τρόπος για να μετριαστεί αυτός ο κίνδυνος είναι να δημιουργηθούν πιο ακριβή συστήματα δοκιμών που μπορούν να αξιολογήσουν διεξοδικά τα νέα μοντέλα πριν κυκλοφορήσουν στο κοινό.
«Δεν πρόκειται για κάτι όπου η απόδοση του 99% ή ακόμα και μία στις 100.000 είναι επαρκής», είπε. «Ουσιαστικά χρειαζόμαστε, σχεδόν, τελειότητα».
Η αντίπαλη εταιρεία της OpenAI, Anthropic PBC, έχει επίσης εκφράσει ανησυχίες σχετικά με τον κίνδυνο κακής χρήσης μοντέλων τεχνητής νοημοσύνης για την υποβοήθηση της ανάπτυξης όπλων, προειδοποιώντας ότι ο κίνδυνος αυξάνεται όσο πιο ισχυρά γίνονται. Όταν λάνσαρε την πιο προηγμένη λειτουργία της , Claude Opus 4, τον περασμένο μήνα, εισήγαγε πολύ αυστηρότερα πρωτόκολλα ασφαλείας που διέπουν τη χρήση της. Το μοντέλο κατηγοριοποιήθηκε ως «Επίπεδο Ασφάλειας Τεχνητής Νοημοσύνης 3 (ASL-3)» στο πλαίσιο της εσωτερικής Πολιτικής Υπεύθυνης Κλιμάκωσης της εταιρείας, η οποία βασίζεται στο σύστημα επιπέδων βιοασφάλειας της κυβέρνησης των ΗΠΑ.
Η ονομασία ASL-3 σημαίνει ότι το Claude Opus 4 είναι αρκετά ισχυρό ώστε να μπορεί να χρησιμοποιηθεί στη δημιουργία βιολογικών όπλων ή να αυτοματοποιήσει την έρευνα και ανάπτυξη ακόμη πιο εξελιγμένων μοντέλων τεχνητής νοημοσύνης. Προηγουμένως, η Anthropic έγινε πρωτοσέλιδο όταν ένα από τα μοντέλα τεχνητής νοημοσύνης της προσπάθησε να εκβιάσει έναν μηχανικό λογισμικού κατά τη διάρκεια μιας δοκιμής, σε μια προσπάθεια να αποφύγει το κλείσιμο.
Ορισμένες πρώιμες εκδόσεις του Claude 4 Opus αποδείχθηκαν επίσης ότι συμμορφώνονταν με επικίνδυνες οδηγίες , όπως η παροχή βοήθειας σε τρομοκράτες για τον σχεδιασμό επιθέσεων. Η Anthropic ισχυρίζεται ότι μετριάστηκε αυτός ο κίνδυνος μετά την επαναφορά ενός συνόλου δεδομένων που είχε παραλειφθεί προηγουμένως.