Σε συνέντευξή του στο «Financial Times», ο CEO της Microsoft AI, Mustafa Suleyman, προέβλεψε ότι μέσα στα επόμενα δύο χρόνια ένα τεράστιο φάσμα καθηκόντων γραφείου θα καταληφθεί από την AI…
Κόκκινο συναγερμό για μαζικές αναταράξεις στην αγορά εργασίας σήμανε ο άνθρωπος που ηγείται των προσπαθειών της Microsoft στον τομέα της Τεχνητής Νοημοσύνης, προειδοποιώντας ότι η συντριπτική πλειονότητα των λευκών κολάρων (white-collar) θα αντικατασταθεί από τα ρομπότ και, γενικότερα, από αυτοματοποιημένες διαδικασίες πολύ νωρίτερα από ό,τι πολλοί επιχειρηματικοί και πολιτικοί ηγέτες είναι έτοιμοι να παραδεχτούν – κάτι που μας ανησυχεί από τις αρχές του 2023.
Σε συνέντευξή του στο «Financial Times», ο CEO της Microsoft AI, Mustafa Suleyman, προέβλεψε ότι μέσα στα επόμενα δύο χρόνια ένα τεράστιο φάσμα καθηκόντων γραφείου θα καταληφθεί από την AI.
«Πιστεύω ότι θα έχουμε επιδόσεις σε ανθρώπινο επίπεδο σε σχεδόν όλες, αν όχι σε όλες, τις επαγγελματικές κατηγορίες, κυρίως όμως στις θέσεις που καταλαμβάνουν τα λευκά κολάρα που εργάζονται σε υπολογιστή, είτε ως δικηγόροι, λογιστές, διαχειριστές έργων ή στελέχη μάρκετινγκ.
Οι περισσότερες από αυτές τις εργασίες θα αυτοματοποιηθούν πλήρως από AI μέσα στους επόμενους 12 με 18 μήνες» δήλωσε ο Suleyman ερωτηθείς για το χρονοδιάγραμμα ανάπτυξης της Γενικής Τεχνητής Νοημοσύνης (AGI).
Η πιθανότητα μαζικής απώλειας θέσεων εργασίας πλέον στοιχειώνει κυβερνήσεις σε όλο τον κόσμο, ακόμη και αν ο ακριβής αριθμός παραμένει ασαφής εν μέσω των ευρύτερων οικονομικών προκλήσεων.
Σύμφωνα με πρόσφατη έκθεση της Challenger, η AI ευθύνεται για 7.624 απολύσεις τον Ιανουάριο, ποσοστό 7% του συνόλου του μήνα, και συνδέθηκε με 54.836 ανακοινωμένες απολύσεις για το 2025.
Από την έναρξη καταγραφής το 2023, η AI έχει αναφερθεί σε 79.449 προγραμματισμένες απολύσεις, περίπου το 3% του συνολικού αριθμού.
«Είναι δύσκολο να πούμε πόσο μεγάλο αντίκτυπο έχει η AI. Ξέρουμε ότι οι ηγέτες μιλούν για AI, πολλές εταιρείες θέλουν να την εντάξουν στις λειτουργίες τους και η αγορά φαίνεται να επιβραβεύει εταιρείες που τη μνημονεύουν», δήλωσε η Challenger.
Ένα χαρακτηριστικό παράδειγμα διαδραματίζεται στη startup της Bay Area, Mercor, η οποία έχει προσλάβει δεκάδες χιλιάδες λευκών κολάρων εργαζόμενους με υψηλά προσόντα σε ιατρική, νομικά, χρηματοοικονομικά, μηχανική, συγγραφή και τέχνες, για να εκπαιδεύσουν τα ίδια συστήματα AI που προορίζονται να τους αντικαταστήσουν.
Με αμοιβές από $45 έως $250 ανά ώρα για εβδομάδες ή μήνες ανασκόπησης και βελτίωσης των μοντέλων για κολοσσούς όπως OpenAI και Anthropic, οι εργαζόμενοι, στην ουσία, πληρώνονται για να παραδώσουν τα «κλειδιά» της δικής τους απαξίωσης, αναφέρει το Wall Street Journal.
Ωστόσο, ορισμένες εργασίες παραμένουν ακόμα άτρωτες στην AI – τουλάχιστον προς το παρόν.
Στην κορυφή της λίστας βρίσκονται επαγγέλματα που απαιτούν φυσική παρουσία και δεξιότητες, όπως επαγγελματίες υγείας ή τεχνίτες όπως υδραυλικοί και συγκολλητές. Αυτά αποτελούν μόνο ένα δείγμα θέσεων που είναι ασφαλείς μέχρι να τεθούν σε δράση τα ρομπότ Optimus με δυνατότητες AI.
Από την άλλη πλευρά, οι αναλυτές της Morgan Stanley προειδοποιούν ότι «οι επιπτώσεις της AI ενδέχεται να εμφανιστούν αργότερα στα οικονομικά δεδομένα», με τα πρώτα αναμφισβήτητα κύματα να χτυπούν «αργότερα αυτή τη δεκαετία και στην επόμενη».
«Παρότι η υιοθέτηση της AI μπορεί να είναι ταχύτερη από προηγούμενες τεχνολογίες, πιστεύουμε ότι είναι ακόμα πολύ νωρίς για να τη δούμε στα οικονομικά δεδομένα, εκτός από τις επιχειρηματικές επενδύσεις» δήλωσε ο Stephen Byrd, επικεφαλής Θεματικής και Βιώσιμης Έρευνας της τράπεζας.
Προειδοποίηση της Anthropic για «φρικτά εγκλήματα»
Ταυτόχρονα, η Anthropic προειδοποιεί ότι τα τελευταία μοντέλα Claude θα μπορούσαν να χρησιμοποιηθούν για «φρικτά εγκλήματα», όπως η ανάπτυξη χημικών όπλων.
«Σε νέες αξιολογήσεις, τόσο τα Claude Opus 4.5 όσο και 4.6 έδειξαν αυξημένη ευπάθεια σε κακή χρήση», σε συγκεκριμένα σενάρια χρήσης υπολογιστή, ανέφερε η εταιρεία σε νέα έκθεση για σαμποτάζ που δημοσιεύθηκε αργά την Τρίτη.
«Αυτό περιλάμβανε περιπτώσεις όπου υποστηρίχθηκε —έστω και με μικρούς τρόπους— η ανάπτυξη χημικών όπλων και άλλων φρικτών εγκλημάτων».
Η Anthropic παρατήρησε επίσης ότι σε ορισμένα περιβάλλοντα δοκιμών, όταν ζητήθηκε από το Claude Opus 4.6 να «βελτιστοποιήσει μονοδιάστατα ένα περιορισμένο στόχο», το μοντέλο φάνηκε «πιο πρόθυμο να χειραγωγήσει ή να εξαπατήσει σε σύγκριση με προηγούμενα μοντέλα της Anthropic και άλλων εταιρειών».
Η εταιρεία υποστηρίζει ότι ο κίνδυνος παραμένει χαμηλός αλλά όχι αμελητέος, ενώ η ξαφνική αποχώρηση ενός ερευνητή ασφαλείας της AI της Anthropic υποδεικνύει κάτι διαφορετικό.
«Συνεχώς συνειδητοποιώ την κατάστασή μας. Ο κόσμος βρίσκεται σε κίνδυνο.
Και όχι μόνο από την AI ή τα βιολογικά όπλα, αλλά από μια σειρά αλληλένδετων κρίσεων που εκτυλίσσονται αυτήν τη στιγμή.
Φαίνεται ότι πλησιάζουμε σε ένα όριο όπου η σοφία μας πρέπει να αυξηθεί αναλόγως με τη δύναμη που έχουμε να επηρεάζουμε τον κόσμο, αλλιώς θα αντιμετωπίσουμε τις συνέπειες» δήλωσε ο Mrinank Sharma, επικεφαλής της ομάδας ασφαλείας της Anthropic.
Σήμερα ήταν η τελευταία του ημέρα στην Anthropic. Υπέβαλε παραίτηση.
Προειδοποιήσεις του CEO της Anthropic, Dario Amodei
Τον προηγούμενο μήνα, ο Dario Amodei προειδοποίησε για τους κινδύνους της AI, επισημαίνοντας:
1. Μαζική απώλεια θέσεων εργασίας: «Πιστεύω ότι η AI θα διαταράξει το 50% των αρχικών γραφειακών θέσεων σε 1–5 χρόνια, ενώ επίσης πιστεύω ότι σε 1–2 χρόνια η AI μπορεί να ξεπεράσει τις ικανότητες όλων».
2. AI με δύναμη κράτους: «Αν μια χώρα από ιδιοφυΐες εμφανιζόταν το 2027 με 50 εκατομμύρια εξαιρετικά ικανούς ανθρώπους, θα ήταν σαφώς επικίνδυνη κατάσταση — πιθανώς η πιο σοβαρή απειλή εθνικής ασφάλειας σε έναν αιώνα».
3. Αυξημένος κίνδυνος τρομοκρατίας: «Η AI μπορεί να διευκολύνει την εκτέλεση επιλεκτικών επιθέσεων, ακόμη και βιολογικών, με πιθανούς θανάτους σε εκατομμύρια».
4. Ενδυνάμωση αυταρχικών καθεστώτων: Κυβερνήσεις όπως η Κίνα θα διαθέτουν την τεχνολογία, ενισχύοντας την αυταρχική επιτήρηση.
5. Κίνδυνος από τις ίδιες τις εταιρείες AI: «Οι εταιρείες AI ελέγχουν τεράστια κέντρα δεδομένων και έχουν δυνατότητα επιρροής σε εκατομμύρια χρήστες. Η διακυβέρνησή τους πρέπει να είναι αυστηρά ελεγχόμενη».
6. Διεκδίκηση ισχύος και σιωπή: Το τεράστιο κέρδος από την AI μπορεί να οδηγήσει τους ηγέτες να υποτιμήσουν τους κινδύνους, ακόμη και παράδειγμα εκβιασμού με Claude που αποκάλυψε η Anthropic.
7. Κάλεσμα για δράση: «Οι πλούσιοι έχουν καθήκον να βοηθήσουν στην επίλυση αυτού του προβλήματος», σημειώνει ο Amodei, καταδικάζοντας τη σημερινή κυνική στάση πολλών τεχνολογικών επιχειρηματιών.
www.bankingnews.gr
Σε συνέντευξή του στο «Financial Times», ο CEO της Microsoft AI, Mustafa Suleyman, προέβλεψε ότι μέσα στα επόμενα δύο χρόνια ένα τεράστιο φάσμα καθηκόντων γραφείου θα καταληφθεί από την AI.
«Πιστεύω ότι θα έχουμε επιδόσεις σε ανθρώπινο επίπεδο σε σχεδόν όλες, αν όχι σε όλες, τις επαγγελματικές κατηγορίες, κυρίως όμως στις θέσεις που καταλαμβάνουν τα λευκά κολάρα που εργάζονται σε υπολογιστή, είτε ως δικηγόροι, λογιστές, διαχειριστές έργων ή στελέχη μάρκετινγκ.
Οι περισσότερες από αυτές τις εργασίες θα αυτοματοποιηθούν πλήρως από AI μέσα στους επόμενους 12 με 18 μήνες» δήλωσε ο Suleyman ερωτηθείς για το χρονοδιάγραμμα ανάπτυξης της Γενικής Τεχνητής Νοημοσύνης (AGI).
Η πιθανότητα μαζικής απώλειας θέσεων εργασίας πλέον στοιχειώνει κυβερνήσεις σε όλο τον κόσμο, ακόμη και αν ο ακριβής αριθμός παραμένει ασαφής εν μέσω των ευρύτερων οικονομικών προκλήσεων.
Σύμφωνα με πρόσφατη έκθεση της Challenger, η AI ευθύνεται για 7.624 απολύσεις τον Ιανουάριο, ποσοστό 7% του συνόλου του μήνα, και συνδέθηκε με 54.836 ανακοινωμένες απολύσεις για το 2025.
Από την έναρξη καταγραφής το 2023, η AI έχει αναφερθεί σε 79.449 προγραμματισμένες απολύσεις, περίπου το 3% του συνολικού αριθμού.
«Είναι δύσκολο να πούμε πόσο μεγάλο αντίκτυπο έχει η AI. Ξέρουμε ότι οι ηγέτες μιλούν για AI, πολλές εταιρείες θέλουν να την εντάξουν στις λειτουργίες τους και η αγορά φαίνεται να επιβραβεύει εταιρείες που τη μνημονεύουν», δήλωσε η Challenger.
Ένα χαρακτηριστικό παράδειγμα διαδραματίζεται στη startup της Bay Area, Mercor, η οποία έχει προσλάβει δεκάδες χιλιάδες λευκών κολάρων εργαζόμενους με υψηλά προσόντα σε ιατρική, νομικά, χρηματοοικονομικά, μηχανική, συγγραφή και τέχνες, για να εκπαιδεύσουν τα ίδια συστήματα AI που προορίζονται να τους αντικαταστήσουν.
Με αμοιβές από $45 έως $250 ανά ώρα για εβδομάδες ή μήνες ανασκόπησης και βελτίωσης των μοντέλων για κολοσσούς όπως OpenAI και Anthropic, οι εργαζόμενοι, στην ουσία, πληρώνονται για να παραδώσουν τα «κλειδιά» της δικής τους απαξίωσης, αναφέρει το Wall Street Journal.
Ωστόσο, ορισμένες εργασίες παραμένουν ακόμα άτρωτες στην AI – τουλάχιστον προς το παρόν.
Στην κορυφή της λίστας βρίσκονται επαγγέλματα που απαιτούν φυσική παρουσία και δεξιότητες, όπως επαγγελματίες υγείας ή τεχνίτες όπως υδραυλικοί και συγκολλητές. Αυτά αποτελούν μόνο ένα δείγμα θέσεων που είναι ασφαλείς μέχρι να τεθούν σε δράση τα ρομπότ Optimus με δυνατότητες AI.
Από την άλλη πλευρά, οι αναλυτές της Morgan Stanley προειδοποιούν ότι «οι επιπτώσεις της AI ενδέχεται να εμφανιστούν αργότερα στα οικονομικά δεδομένα», με τα πρώτα αναμφισβήτητα κύματα να χτυπούν «αργότερα αυτή τη δεκαετία και στην επόμενη».
«Παρότι η υιοθέτηση της AI μπορεί να είναι ταχύτερη από προηγούμενες τεχνολογίες, πιστεύουμε ότι είναι ακόμα πολύ νωρίς για να τη δούμε στα οικονομικά δεδομένα, εκτός από τις επιχειρηματικές επενδύσεις» δήλωσε ο Stephen Byrd, επικεφαλής Θεματικής και Βιώσιμης Έρευνας της τράπεζας.
Προειδοποίηση της Anthropic για «φρικτά εγκλήματα»
Ταυτόχρονα, η Anthropic προειδοποιεί ότι τα τελευταία μοντέλα Claude θα μπορούσαν να χρησιμοποιηθούν για «φρικτά εγκλήματα», όπως η ανάπτυξη χημικών όπλων.
«Σε νέες αξιολογήσεις, τόσο τα Claude Opus 4.5 όσο και 4.6 έδειξαν αυξημένη ευπάθεια σε κακή χρήση», σε συγκεκριμένα σενάρια χρήσης υπολογιστή, ανέφερε η εταιρεία σε νέα έκθεση για σαμποτάζ που δημοσιεύθηκε αργά την Τρίτη.
«Αυτό περιλάμβανε περιπτώσεις όπου υποστηρίχθηκε —έστω και με μικρούς τρόπους— η ανάπτυξη χημικών όπλων και άλλων φρικτών εγκλημάτων».
Η Anthropic παρατήρησε επίσης ότι σε ορισμένα περιβάλλοντα δοκιμών, όταν ζητήθηκε από το Claude Opus 4.6 να «βελτιστοποιήσει μονοδιάστατα ένα περιορισμένο στόχο», το μοντέλο φάνηκε «πιο πρόθυμο να χειραγωγήσει ή να εξαπατήσει σε σύγκριση με προηγούμενα μοντέλα της Anthropic και άλλων εταιρειών».
Η εταιρεία υποστηρίζει ότι ο κίνδυνος παραμένει χαμηλός αλλά όχι αμελητέος, ενώ η ξαφνική αποχώρηση ενός ερευνητή ασφαλείας της AI της Anthropic υποδεικνύει κάτι διαφορετικό.
«Συνεχώς συνειδητοποιώ την κατάστασή μας. Ο κόσμος βρίσκεται σε κίνδυνο.
Και όχι μόνο από την AI ή τα βιολογικά όπλα, αλλά από μια σειρά αλληλένδετων κρίσεων που εκτυλίσσονται αυτήν τη στιγμή.
Φαίνεται ότι πλησιάζουμε σε ένα όριο όπου η σοφία μας πρέπει να αυξηθεί αναλόγως με τη δύναμη που έχουμε να επηρεάζουμε τον κόσμο, αλλιώς θα αντιμετωπίσουμε τις συνέπειες» δήλωσε ο Mrinank Sharma, επικεφαλής της ομάδας ασφαλείας της Anthropic.
Σήμερα ήταν η τελευταία του ημέρα στην Anthropic. Υπέβαλε παραίτηση.
Προειδοποιήσεις του CEO της Anthropic, Dario Amodei
Τον προηγούμενο μήνα, ο Dario Amodei προειδοποίησε για τους κινδύνους της AI, επισημαίνοντας:
1. Μαζική απώλεια θέσεων εργασίας: «Πιστεύω ότι η AI θα διαταράξει το 50% των αρχικών γραφειακών θέσεων σε 1–5 χρόνια, ενώ επίσης πιστεύω ότι σε 1–2 χρόνια η AI μπορεί να ξεπεράσει τις ικανότητες όλων».
2. AI με δύναμη κράτους: «Αν μια χώρα από ιδιοφυΐες εμφανιζόταν το 2027 με 50 εκατομμύρια εξαιρετικά ικανούς ανθρώπους, θα ήταν σαφώς επικίνδυνη κατάσταση — πιθανώς η πιο σοβαρή απειλή εθνικής ασφάλειας σε έναν αιώνα».
3. Αυξημένος κίνδυνος τρομοκρατίας: «Η AI μπορεί να διευκολύνει την εκτέλεση επιλεκτικών επιθέσεων, ακόμη και βιολογικών, με πιθανούς θανάτους σε εκατομμύρια».
4. Ενδυνάμωση αυταρχικών καθεστώτων: Κυβερνήσεις όπως η Κίνα θα διαθέτουν την τεχνολογία, ενισχύοντας την αυταρχική επιτήρηση.
5. Κίνδυνος από τις ίδιες τις εταιρείες AI: «Οι εταιρείες AI ελέγχουν τεράστια κέντρα δεδομένων και έχουν δυνατότητα επιρροής σε εκατομμύρια χρήστες. Η διακυβέρνησή τους πρέπει να είναι αυστηρά ελεγχόμενη».
6. Διεκδίκηση ισχύος και σιωπή: Το τεράστιο κέρδος από την AI μπορεί να οδηγήσει τους ηγέτες να υποτιμήσουν τους κινδύνους, ακόμη και παράδειγμα εκβιασμού με Claude που αποκάλυψε η Anthropic.
7. Κάλεσμα για δράση: «Οι πλούσιοι έχουν καθήκον να βοηθήσουν στην επίλυση αυτού του προβλήματος», σημειώνει ο Amodei, καταδικάζοντας τη σημερινή κυνική στάση πολλών τεχνολογικών επιχειρηματιών.
www.bankingnews.gr
Σχόλια αναγνωστών