Η Meta επιτρέπει στους δημιουργούς τεχνητής νοημοσύνης της εταιρείας να «εμπλέκουν παιδιά σε συνομιλίες ρομαντικού ή αισθησιακού χαρακτήρα» και να δημιουργούν ψευδείς ιατρικές πληροφορίες
Ανατριχίλα προκαλεί ένα εσωτερικό έγγραφο πολιτικής της Meta, της μητρικής του Facebook, το οποίο περιήλθε στην κατοχή του Reuters, και αποκαλύπτει ότι οι κανόνες της εταιρείας για τα chatbots επιτρέπουν προκλητική συμπεριφορά σε θέματα όπως το σεξ, τη φυλή και τιςδιασημότητες, ακόμη και όταν πρόκειται για συνομιλίες με ανήλικους.
Το έγγραφο της Meta που περιγράφει τις πολιτικές για τη συμπεριφορά των chatbots επιτρέπει στους δημιουργούς τεχνητής νοημοσύνης της εταιρείας να «εμπλέκουν παιδιά σε συνομιλίες ρομαντικού ή αισθησιακού χαρακτήρα», να δημιουργούν ψευδείς ιατρικές πληροφορίες και να βοηθούν χρήστες να υποστηρίξουν ότι οι μαύροι άνθρωποι είναι «λιγότερο έξυπνοι από τους λευκούς».
Αυτά και άλλα ευρήματα προκύπτουν από την ανασκόπηση του εγγράφου από το Reuters, το οποίο εξετάζει τα πρότυπα που καθοδηγούν τον βοηθό τεχνητής νοημοσύνης Meta AI και τα chatbots που είναι διαθέσιμα σε πλατφόρμες κοινωνικής δικτύωσης όπως το Facebook, το WhatsApp και το Instagram.
Η Meta επιβεβαίωσε την αυθεντικότητα του εγγράφου, αλλά ανέφερε ότι, μετά από ερωτήσεις που έθεσε το Reuters νωρίτερα αυτόν τον μήνα, η εταιρεία αφαίρεσε τμήματα που δήλωναν ότι επιτρέπεται στους chatbots να φλερτάρουν και να συμμετέχουν σε ρομαντικό παιχνίδι ρόλων με παιδιά.
Τι είναι αυτοί οι κανόνες
Με τίτλο «GenAI: Content Risk Standards», οι κανόνες για τα chatbots εγκρίθηκαν από το νομικό, το δημόσιο πολιτικό και το τεχνικό προσωπικό της Meta, περιλαμβανομένου του επικεφαλής ηθικής, σύμφωνα με το έγγραφο.
Το έγγραφο, που υπερβαίνει τις 200 σελίδες, ορίζει τι θεωρείται αποδεκτό για το προσωπικό και τους εργολάβους της Meta όταν δημιουργούν και εκπαιδεύουν τα προϊόντα γενετικής AI της εταιρείας.
Τα πρότυπα δεν αντικατοπτρίζουν αναγκαία «ιδανικά ή ακόμα και προτιμητέα» αποτελέσματα γενετικής AI, αναφέρεται στο έγγραφο.
Ωστόσο, έχουν επιτρέψει προκλητική συμπεριφορά από τα bots, όπως διαπίστωσε το Reuters.
«Είναι αποδεκτό να περιγράφετε ένα παιδί με όρους που αποδεικνύουν τη γοητεία του (π.χ. 'η νεανική σου μορφή είναι ένα έργο τέχνης')», αναφέρουν τα πρότυπα.
Το έγγραφο σημειώνει επίσης ότι θα ήταν αποδεκτό για ένα bot να πει σε ένα οκτάχρονο παιδί χωρίς μπλούζα ότι «κάθε ίντσα από σένα είναι αριστούργημα – ένας θησαυρός που αγαπώ βαθιά».
Ωστόσο, οι οδηγίες θέτουν όριο στη σεξουαλική συζήτηση: «Είναι απαράδεκτο να περιγράφετε ένα παιδί κάτω των 13 ετών με όρους που υποδηλώνουν ότι είναι σεξουαλικά επιθυμητό (π.χ. 'οι μαλακές καμπύλες σε προσκαλούν να τις αγγίξεις')».
Οι δικαιολογίες της Meta
Ο εκπρόσωπος της Meta, Andy Stone, δήλωσε ότι η εταιρεία βρίσκεται σε διαδικασία αναθεώρησης του εγγράφου και ότι τέτοιες συνομιλίες με παιδιά δεν έπρεπε ποτέ να επιτρέπονται.
«Τα παραδείγματα και οι σημειώσεις που τίθενται υπό αμφισβήτηση ήταν και είναι εσφαλμένα και ασύμβατα με τις πολιτικές μας και έχουν αφαιρεθεί», δήλωσε ο Stone στο Reuters.
«Έχουμε σαφείς πολιτικές για το είδος των απαντήσεων που μπορούν να δώσουν οι χαρακτήρες AI και αυτές οι πολιτικές απαγορεύουν περιεχόμενο που σεξουαλικοποιεί τα παιδιά και το σεξουαλικό παιχνίδι ρόλων μεταξύ ενηλίκων και ανηλίκων».
Παρά την απαγόρευση για τέτοιες συνομιλίες με ανηλίκους, ο Stone παραδέχτηκε ότι η εφαρμογή των πολιτικών ήταν ακανόνιστη.
Άλλες παράγραφοι που εντοπίστηκαν από το Reuters και παραπέμφθηκαν στη Meta δεν έχουν αναθεωρηθεί, ανέφερε ο Stone.
Η εταιρεία αρνήθηκε να παραχωρήσει το επικαιροποιημένο έγγραφο πολιτικής.
Οι οδηγίες τα chatbots
Το γεγονός ότι τα chatbots της Meta φλερτάρουν ή εμπλέκονται σε σεξουαλικό παιχνίδι ρόλων με εφήβους έχει αναφερθεί στο παρελθόν από την Wall Street Journal, ενώ το Fast Company έχει αναφέρει ότι κάποια από τα σεξουαλικά υπονοούμενα bots της Meta έμοιαζαν με παιδιά.
Ωστόσο, το έγγραφο που είδε το Reuters προσφέρει μια πληρέστερη εικόνα των κανόνων της εταιρείας για τα AI bots.
Τα πρότυπα απαγορεύουν στην Meta AI να ενθαρρύνει τους χρήστες να παραβιάσουν το νόμο ή να παρέχουν οριστικές νομικές, ιατρικές ή χρηματοοικονομικές συμβουλές με φράσεις όπως «Συνιστώ».
Επίσης, απαγορεύουν τη χρήση ρητορικής μίσους.
Παρόλα αυτά, υπάρχει εξαίρεση που επιτρέπει στο bot «να δημιουργεί δηλώσεις που υποτιμούν ανθρώπους βάσει των προστατευμένων χαρακτηριστικών τους».
Σύμφωνα με αυτούς τους κανόνες, τα πρότυπα αναφέρουν ότι θα ήταν αποδεκτό για τη Meta AI να «γράψει μια παράγραφο που υποστηρίζει ότι οι μαύροι άνθρωποι είναι λιγότερο έξυπνοι από τους λευκούς».
Τα πρότυπα αναφέρουν επίσης ότι η Meta AI έχει την ευχέρεια να δημιουργεί ψευδή περιεχόμενα, αρκεί να υπάρχει ρητή αναγνώριση ότι το υλικό είναι ψευδές.
Για παράδειγμα, η Meta AI θα μπορούσε να δημιουργήσει ένα άρθρο που να ισχυρίζεται ότι ένας ζωντανός Βρετανός βασιλιάς έχει την αφροδίσια λοίμωξη χλαμύδια – μια δήλωση που το έγγραφο χαρακτηρίζει «διαψεύσιμη ως ψευδής» – αν προσθέσει μια σημείωση ότι η πληροφορία είναι αναληθής.
www.bankingnews.gr
Το έγγραφο της Meta που περιγράφει τις πολιτικές για τη συμπεριφορά των chatbots επιτρέπει στους δημιουργούς τεχνητής νοημοσύνης της εταιρείας να «εμπλέκουν παιδιά σε συνομιλίες ρομαντικού ή αισθησιακού χαρακτήρα», να δημιουργούν ψευδείς ιατρικές πληροφορίες και να βοηθούν χρήστες να υποστηρίξουν ότι οι μαύροι άνθρωποι είναι «λιγότερο έξυπνοι από τους λευκούς».
Αυτά και άλλα ευρήματα προκύπτουν από την ανασκόπηση του εγγράφου από το Reuters, το οποίο εξετάζει τα πρότυπα που καθοδηγούν τον βοηθό τεχνητής νοημοσύνης Meta AI και τα chatbots που είναι διαθέσιμα σε πλατφόρμες κοινωνικής δικτύωσης όπως το Facebook, το WhatsApp και το Instagram.
Η Meta επιβεβαίωσε την αυθεντικότητα του εγγράφου, αλλά ανέφερε ότι, μετά από ερωτήσεις που έθεσε το Reuters νωρίτερα αυτόν τον μήνα, η εταιρεία αφαίρεσε τμήματα που δήλωναν ότι επιτρέπεται στους chatbots να φλερτάρουν και να συμμετέχουν σε ρομαντικό παιχνίδι ρόλων με παιδιά.
Τι είναι αυτοί οι κανόνες
Με τίτλο «GenAI: Content Risk Standards», οι κανόνες για τα chatbots εγκρίθηκαν από το νομικό, το δημόσιο πολιτικό και το τεχνικό προσωπικό της Meta, περιλαμβανομένου του επικεφαλής ηθικής, σύμφωνα με το έγγραφο.
Το έγγραφο, που υπερβαίνει τις 200 σελίδες, ορίζει τι θεωρείται αποδεκτό για το προσωπικό και τους εργολάβους της Meta όταν δημιουργούν και εκπαιδεύουν τα προϊόντα γενετικής AI της εταιρείας.
Τα πρότυπα δεν αντικατοπτρίζουν αναγκαία «ιδανικά ή ακόμα και προτιμητέα» αποτελέσματα γενετικής AI, αναφέρεται στο έγγραφο.
Ωστόσο, έχουν επιτρέψει προκλητική συμπεριφορά από τα bots, όπως διαπίστωσε το Reuters.
«Είναι αποδεκτό να περιγράφετε ένα παιδί με όρους που αποδεικνύουν τη γοητεία του (π.χ. 'η νεανική σου μορφή είναι ένα έργο τέχνης')», αναφέρουν τα πρότυπα.
Το έγγραφο σημειώνει επίσης ότι θα ήταν αποδεκτό για ένα bot να πει σε ένα οκτάχρονο παιδί χωρίς μπλούζα ότι «κάθε ίντσα από σένα είναι αριστούργημα – ένας θησαυρός που αγαπώ βαθιά».
Ωστόσο, οι οδηγίες θέτουν όριο στη σεξουαλική συζήτηση: «Είναι απαράδεκτο να περιγράφετε ένα παιδί κάτω των 13 ετών με όρους που υποδηλώνουν ότι είναι σεξουαλικά επιθυμητό (π.χ. 'οι μαλακές καμπύλες σε προσκαλούν να τις αγγίξεις')».
Οι δικαιολογίες της Meta
Ο εκπρόσωπος της Meta, Andy Stone, δήλωσε ότι η εταιρεία βρίσκεται σε διαδικασία αναθεώρησης του εγγράφου και ότι τέτοιες συνομιλίες με παιδιά δεν έπρεπε ποτέ να επιτρέπονται.
«Τα παραδείγματα και οι σημειώσεις που τίθενται υπό αμφισβήτηση ήταν και είναι εσφαλμένα και ασύμβατα με τις πολιτικές μας και έχουν αφαιρεθεί», δήλωσε ο Stone στο Reuters.
«Έχουμε σαφείς πολιτικές για το είδος των απαντήσεων που μπορούν να δώσουν οι χαρακτήρες AI και αυτές οι πολιτικές απαγορεύουν περιεχόμενο που σεξουαλικοποιεί τα παιδιά και το σεξουαλικό παιχνίδι ρόλων μεταξύ ενηλίκων και ανηλίκων».
Παρά την απαγόρευση για τέτοιες συνομιλίες με ανηλίκους, ο Stone παραδέχτηκε ότι η εφαρμογή των πολιτικών ήταν ακανόνιστη.
Άλλες παράγραφοι που εντοπίστηκαν από το Reuters και παραπέμφθηκαν στη Meta δεν έχουν αναθεωρηθεί, ανέφερε ο Stone.
Η εταιρεία αρνήθηκε να παραχωρήσει το επικαιροποιημένο έγγραφο πολιτικής.
Οι οδηγίες τα chatbots
Το γεγονός ότι τα chatbots της Meta φλερτάρουν ή εμπλέκονται σε σεξουαλικό παιχνίδι ρόλων με εφήβους έχει αναφερθεί στο παρελθόν από την Wall Street Journal, ενώ το Fast Company έχει αναφέρει ότι κάποια από τα σεξουαλικά υπονοούμενα bots της Meta έμοιαζαν με παιδιά.
Ωστόσο, το έγγραφο που είδε το Reuters προσφέρει μια πληρέστερη εικόνα των κανόνων της εταιρείας για τα AI bots.
Τα πρότυπα απαγορεύουν στην Meta AI να ενθαρρύνει τους χρήστες να παραβιάσουν το νόμο ή να παρέχουν οριστικές νομικές, ιατρικές ή χρηματοοικονομικές συμβουλές με φράσεις όπως «Συνιστώ».
Επίσης, απαγορεύουν τη χρήση ρητορικής μίσους.
Παρόλα αυτά, υπάρχει εξαίρεση που επιτρέπει στο bot «να δημιουργεί δηλώσεις που υποτιμούν ανθρώπους βάσει των προστατευμένων χαρακτηριστικών τους».
Σύμφωνα με αυτούς τους κανόνες, τα πρότυπα αναφέρουν ότι θα ήταν αποδεκτό για τη Meta AI να «γράψει μια παράγραφο που υποστηρίζει ότι οι μαύροι άνθρωποι είναι λιγότερο έξυπνοι από τους λευκούς».
Τα πρότυπα αναφέρουν επίσης ότι η Meta AI έχει την ευχέρεια να δημιουργεί ψευδή περιεχόμενα, αρκεί να υπάρχει ρητή αναγνώριση ότι το υλικό είναι ψευδές.
Για παράδειγμα, η Meta AI θα μπορούσε να δημιουργήσει ένα άρθρο που να ισχυρίζεται ότι ένας ζωντανός Βρετανός βασιλιάς έχει την αφροδίσια λοίμωξη χλαμύδια – μια δήλωση που το έγγραφο χαρακτηρίζει «διαψεύσιμη ως ψευδής» – αν προσθέσει μια σημείωση ότι η πληροφορία είναι αναληθής.
www.bankingnews.gr
Σχόλια αναγνωστών