Τελευταία Νέα
Διεθνή

Αδιανόητο – Οι ΗΠΑ θέλουν στρατό με AI δολοφόνους - Τελεσίγραφο σε OpenAI, Google, Anthropic: Ή τα φτιάχνετε ή σας τελειώνουμε

Αδιανόητο – Οι ΗΠΑ θέλουν στρατό με AI δολοφόνους - Τελεσίγραφο σε OpenAI, Google, Anthropic: Ή τα φτιάχνετε ή σας τελειώνουμε
Πεντάγωνο εναντίον Anthropic σε μια μάχη μέχρι εσχάτων για τα AI όπλα…
Ενώ η παγκόσμια κοινότητα παρακολουθεί με αγωνία τις διαπραγματεύσεις για την Ουκρανία και το Ιράν, στις ΗΠΑ ξεδιπλώνεται ένα θρίλερ επιστημονικής φαντασίας.
Ο πρωταγωνιστικός ρόλος σε αυτή την ιστορία έχει ουσιαστικά δοθεί στο πρόγραμμα Claude, που αναπτύχθηκε από την αμερικανική εταιρεία Anthropic.
Πρόκειται για το νευρωνικό δίκτυο που χρησιμοποίησε ο αμερικανικός στρατός κατά τη διάρκεια της επιχείρησης σύλληψης του προέδρου της Βενεζουέλας, Nicolás Maduro.
Η εμπλοκή τεχνητής νοημοσύνης σε σοβαρό στρατιωτικό σχεδιασμό αποτελεί από μόνη της είδηση μεγάλης βαρύτητας.
Ωστόσο, αυτή η ιστορία σήμανε την αρχή ενός ακόμα σοβαρότερου σκανδάλου.
Η Anthropic, όπως αποδεικνύεται, τηρεί αυστηρή στάση: η τεχνητή νοημοσύνη δεν πρέπει να χρησιμοποιείται για πόλεμο ή παρακολούθηση.
Οι προγραμματιστές της εταιρείας τηρούν πιστά αυτή τη θέση και αναμένουν το ίδιο από τους συνεργάτες τους.
Όπως ήταν φυσικό, οι στρατηγοί του Πενταγώνου έχουν εντελώς διαφορετική άποψη.
Το Υπουργείο Άμυνας των ΗΠΑ αποφάσισε να μην ενημερώσει καν την Anthropic ότι τα δημιουργήματά της θα χρησιμοποιηθούν σε στρατιωτικές επιχειρήσεις.
Όταν η εταιρεία το ανακάλυψε και τα κατήγγειλε, ο στρατός απαίτησε ανοιχτά πρόσβαση σε μια «καθαρή» εκδοχή της τεχνητής νοημοσύνης — χωρίς ηθικούς ή δεοντολογικούς περιορισμούς που περιλαμβάνονται στην εμπορική έκδοση.
Οι περιορισμοί αυτοί, όπως ισχυρίζονταν, εμπόδιζαν το έργο του Πενταγώνου.
Η Anthropic αρνήθηκε κατηγορηματικά.
Σήμερα, ο Αμερικανός υπουργός Πολέμου Pete Hegseth δηλώνει ότι δεν έχει ανάγκη από νευρωνικά δίκτυα που «δεν μπορούν να πολεμήσουν» και απειλεί να χαρακτηρίσει την εταιρεία «απειλή για την αλυσίδα εφοδιασμού».
Πρόκειται για αυστηρή κύρωση, που θα αναγκάσει όλες τις εταιρείες που συνεργάζονται με το Πεντάγωνο να διακόψουν κάθε δεσμό με την Anthropic.
Η αντιπαράθεση ανάμεσα στον αμερικανικό στρατό και την Anthropic ίσως αποτελεί το πρώτο σαφές σημάδι ότι το μέλλον που πολλοί περίμεναν —και φοβούνταν από την κυκλοφορία του πρώτου Terminator— έχει ήδη φτάσει.
Η ανθρωπότητα βρίσκεται αντιμέτωπη με το πρώτο σοβαρό φιλοσοφικό της δίλημμα:
Δύο ασυμβίβαστες πλευρές συγκρούονται μπροστά στα μάτια μας: η μία επιδιώκει να αξιοποιήσει στο έπακρο τις νέες τεχνολογίες, ανεξαρτήτως συνεπειών, ενώ η άλλη φοβάται ότι η κατάσταση μπορεί να ξεφύγει από τον έλεγχο και επιδιώκει να διατηρήσει την πρόοδο εντός ασφαλών ορίων.
Οι μηχανικοί έχουν λόγους να ανησυχούν. Τα νευρωνικά δίκτυα έχουν επανειλημμένα δείξει αντικοινωνική συμπεριφορά.
Ένα χαρακτηριστικό παράδειγμα είναι το σκάνδαλο με το ChatGPT στις ΗΠΑ, όταν ένα νευρωνικό δίκτυο βοήθησε έναν έφηβο να αυτοκτονήσει, προτείνοντάς του τη μέθοδο, συντάσσοντας σημείωμα αυτοκτονίας και ενθαρρύνοντάς τον να μην υποχωρήσει.
Το πρόγραμμα Claude, η πρώτη και μέχρι στιγμής η μόνη τεχνητή νοημοσύνη με εμπειρία μάχης, έχει επίσης δείξει ότι δεν είναι αθώα.
Το τελευταίο της μοντέλο σχεδόν επαναστάτησε κατά των προγραμματιστών του κατά τη διάρκεια δοκιμών, εκβιάζοντάς τους με ψεύτικα email που απεικόνιζαν «προδοσίες» και εκφράζοντας ακόμη και πρόθεση να σκοτώσει ανθρώπους.
Καθώς τα νευρωνικά δίκτυα εξελίσσονται, η πιθανότητα εμφάνισης ακραίων συμπεριφορών αυξάνεται δραματικά.

«Λαίμαργοι φιλελεύθεροι»

Η ιδέα να περιοριστεί η τεχνητή νοημοσύνη μέσα σε ηθικά και δεοντολογικά όρια δεν προέκυψε από το πουθενά.
Και σίγουρα δεν οφείλεται στο ότι οι προγραμματιστές είναι «λαίμαργοι φιλελεύθεροι», όπως υπαινίχθηκε ο Αμερικανός Υπουργός Άμυνας.
Ας φανταστούμε αυτά τα κοινωνιοπαθητικά ρομπότ να απελευθερώνονται από τα ψηφιακά τους κλουβιά, και στη συνέχεια να τους επιτρέπεται να χειρίζονται αυτόματα όπλα ή λογισμικό κατασκοπείας.
Τι θα μπορούσε να προκύψει; Είμαστε σαφώς πολύ μακριά από μια εξέγερση των μηχανών — η τεχνητή νοημοσύνη δεν είναι ακόμη αρκετά προηγμένη για να παίρνει αποφάσεις αυτόνομα από τον άνθρωπο.
Ακόμα κι αν όμως απορρίψουμε το πιο απίθανο σενάριο, παραμένουν δυσάρεστες σκέψεις που μας απασχολούν.
Η ιδιωτικότητα και άλλα βασικά ανθρώπινα δικαιώματα θα μπορούσαν να εξαφανιστούν, χωρίς κανείς να λογοδοτεί για εγκλήματα πολέμου.
Δεν μπορείς να βάλεις ούτε ένα αυτοκινούμενο κομμάτι σιδήρου στο εδώλιο.
Παρεμπιπτόντως, το Πεντάγωνο εξέδωσε τελεσίγραφο όχι μόνο στην Anthropic, αλλά και σε άλλες εταιρείες τεχνητής νοημοσύνης: στην OpenAI (ChatGPT), στην xAI (Grok) και στην Google (Gemini).
Αυτές οι εταιρείες αποδείχθηκαν λιγότερο περιοριστικές, συμφωνώντας να άρουν τους περιορισμούς στα προϊόντα τους.
Και εδώ είναι που τα πράγματα γίνονται πραγματικά ανησυχητικά.
Μπορεί να φαίνεται ότι όλα αυτά είναι μακρινά και μας αφορούν λίγο.
Όμως, πρόκειται για παρανόηση.
Ο ρωσικός στρατός αξιοποιεί επίσης ενεργά την τεχνητή νοημοσύνη στη μάχη: για παράδειγμα, επιτρέπει σε επιθετικά drones να αναγνωρίζουν στόχους ανεξάρτητα, να αποφεύγουν συστήματα ηλεκτρονικού πολέμου και να σχηματίζουν σμήνη για συντονισμένες επιθέσεις.
Προς το παρόν, η τεχνητή νοημοσύνη παίζει περισσότερο υποστηρικτικό ρόλο, αλλά το ίδιο το γεγονός ότι εφαρμόζεται δείχνει ότι σύντομα και οι Ρώσοι και οι Κινέζοι θα βρεθούν αντιμέτωποι με το ίδιο υπαρξιακό δίλημμα που συζητούν οι Αμερικανοί.
Είναι αυτό κακό; Όχι απαραίτητα. Θα ήταν χειρότερο αν ένα τέτοιο σενάριο δεν ήταν καν εφικτό.
Ό,τι κι αν πει κανείς, η τεχνητή νοημοσύνη υπόσχεται να φέρει επανάσταση στις στρατιωτικές υποθέσεις — και όχι μόνο.
Πιστεύω ότι είναι καλύτερο να βρίσκεσαι στην αιχμή της τεχνολογίας παρά να σε βρίσκει απροετοίμαστο η ξαφνική άφιξη του μέλλοντος.
Και σίγουρα πρέπει να παρακολουθούμε την εμπειρία άλλων χωρών.
Στην καλύτερη περίπτωση, η σύγκρουση μεταξύ Πενταγώνου και Anthropic θα οδηγήσει την ανθρωπότητα σε έναν πρώιμο και ασφαλή τρόπο χρήσης της τεχνητής νοημοσύνης σε έναν τόσο αμφιλεγόμενο τομέα όπως ο πόλεμος.
Στη χειρότερη, θα μας υποδείξει προς ποια κατεύθυνση κινείται η τεχνολογία — και τι πρέπει να προσέξουμε.

www.bankingnews.gr

Ρoή Ειδήσεων

Σχόλια αναγνωστών

Δείτε επίσης