AMPHIKTYONBOOKS

TRANSLATION IN MANY LANGUAGES

Παρασκευή 14 Ιουλίου 2023

ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ

  

ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ

 

 

Το μανιφέστο του Μπιλ Γκέιτς για την τεχνητή νοημοσύνη: Οι κίνδυνοι είναι μεγάλοι, αλλά διαχειρίσιμοι το έχουμε ξανακάνει – Η ιστορία μας διδάσκει

https://hellasjournal.com/wp-content/uploads/2023/07/230714144356_26811305-bill-gates.jpg

epa10466360 Bill Gates speaks during the Oslo Energy Forum (OEF) in Oslo, Norway 14 February 2023. EPA/Ole Berg-Rusten NORWAY OUT


 14/07/2023


  • facebook
  • twitter
  • email
  • Whats up black

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

https://hellasjournal.com/wp-content/uploads/2019/02/654362ec-%CE%B5%CF%81%CE%BC%CE%BF%CF%85-1024x683.jpg

Στο δόκανο της τεχνητής νοημοσύνης: Εντοπίσθηκαν εμπορεύματα με πλασματικές μειώσεις τιμών σε εκπτωτικές προσφορές [video]

https://hellasjournal.com/wp-content/uploads/2022/01/220121102727_CNA_Tdcf08943de8d4d40877f833c3ea25ad4.jpg

Ο Ελον Μασκ στα «χωράφια» της Τεχνητής Νοημοσύνης: «xAI» η νέα του εταιρία που θα ανταγωνιστεί το ChatGPT

https://hellasjournal.com/wp-content/uploads/2023/07/230711122647_789px-Glossina-morsitans-adult-tsetse-fly-2.jpg

Πειράματα με τεχνητή νοημοσύνη αποδεικνύουν γιατί οι μύγες που δαγκώνουν έλκονται από τις μπλε παγίδες

 

Ο δισεκατομμυριούχος συνιδρυτής της Microsoft Μπιλ Γκέιτς, ένας άνθρωπος που συχνά παρεμβαίνει στον δημόσιο διάλογο μέσα από το προσωπικό του blog Gates Notes, αποφάσισε να καταθέσει τις απόψεις για τους πιθανούς κινδύνους που ενέχει για την ανρθρωπότητα η τεχνητή νοημοσύνη.

Το κείμενο είναι μακροσκελέστατο και διαπνέεται από μια θετική διάθεση, χωρίς να κρύβει τους μεγάλους κινδύνους για κράτη και πολίτες. Όμως με σαφή επιχειρήματα και παραδείγματα από το παρελθόν, ο Μπιλ Γκέιτς εξηγεί γιατι δεν πρέπει να φοβόμαστε την τεχνητή νοημοσύνη, αλλά να την σεβόμαστε και να προετοιμαστούμε για να αντιμετωπίσουμε αποτελεσματικά όσους θα την χρησιμοποιήσουν με ιδιοτέλεια και κακοήθεια για να μας βλάψουν, με την στενή αλλά την ευρεία έννοια.

Το πλήρες μανιφέστο του Μπιλ Γκέιτς για την τεχνητή νοημοσύνη

Οι κίνδυνοι που δημιουργεί η τεχνητή νοημοσύνη μπορεί να φαίνονται συντριπτικοί. Τι συμβαίνει με τους ανθρώπους που χάνουν τη δουλειά τους από ένα έξυπνο μηχάνημα; Θα μπορούσε η τεχνητή νοημοσύνη να επηρεάσει τα αποτελέσματα των εκλογών; Τι γίνεται αν μια μελλοντική τεχνητή νοημοσύνη αποφασίσει ότι δεν χρειάζεται πλέον ανθρώπους και θέλει να μας ξεφορτωθεί;

Όλα αυτά είναι δίκαια ερωτήματα και οι ανησυχίες που εγείρουν πρέπει να ληφθούν σοβαρά υπόψη. Αλλά υπάρχει ένας καλός λόγος να πιστεύουμε ότι μπορούμε να τα αντιμετωπίσουμε: Δεν είναι η πρώτη φορά που μια σημαντική καινοτομία εισάγει νέες απειλές που έπρεπε να ελεγχθούν. Το έχουμε ξανακάνει.

Είτε ήταν η εισαγωγή των αυτοκινήτων είτε η άνοδος των προσωπικών υπολογιστών και του Διαδικτύου, οι άνθρωποι τα κατάφεραν μέσα από άλλες μεταμορφωτικές στιγμές και, παρά τις πολλές αναταράξεις, στο τέλος βγήκαν καλύτερα.

Λίγο μετά τα πρώτα αυτοκίνητα στο δρόμο, έγινε το πρώτο τροχαίο. Αλλά δεν απαγορεύσαμε τα αυτοκίνητα – υιοθετήσαμε όρια ταχύτητας, πρότυπα ασφαλείας, απαιτήσεις αδειοδότησης, νόμους για την οδήγηση υπό την επήρεια αλκοόλ και άλλους οδικούς κανόνες.

Βρισκόμαστε τώρα στο πιο πρώιμο στάδιο μιας άλλης βαθιάς αλλαγής, της Εποχής της Τεχνητής Νοημοσύνης. Είναι ανάλογο με εκείνους τους αβέβαιους χρόνους πριν από τα όρια ταχύτητας και τις ζώνες ασφαλείας.

Το AI αλλάζει τόσο γρήγορα που δεν είναι ξεκάθαρο τι ακριβώς θα συμβεί στη συνέχεια. Αντιμετωπίζουμε μεγάλα ερωτήματα που εγείρονται από τον τρόπο λειτουργίας της τρέχουσας τεχνολογίας, τους τρόπους με τους οποίους οι άνθρωποι θα τη χρησιμοποιούν για κακή πρόθεση και τους τρόπους με τους οποίους η τεχνητή νοημοσύνη θα μας αλλάξει ως κοινωνία και ως άτομα.

Σε μια τέτοια στιγμή, είναι φυσικό να νιώθεις αναστατωμένος. Όμως η ιστορία δείχνει ότι είναι δυνατό να λυθούν οι προκλήσεις που δημιουργούνται από τις νέες τεχνολογίες.

Έχω γράψει στο παρελθόν για το πώς η τεχνητή νοημοσύνη πρόκειται να φέρει επανάσταση στη ζωή μας. Θα βοηθήσει στην επίλυση προβλημάτων -στην υγεία, την εκπαίδευση, την κλιματική αλλαγή και άλλα- που φαίνονταν δυσεπίλυτα.

Το Ίδρυμα Gates το θέτει ως προτεραιότητα και ο διευθύνων σύμβουλός μας, Mark Suzman, μοιράστηκε πρόσφατα πώς σκέφτεται τον ρόλο του στη μείωση της ανισότητας.

Θα έχω περισσότερα να πω στο μέλλον για τα οφέλη της τεχνητής νοημοσύνης, αλλά σε αυτήν την ανάρτηση, θέλω να αναγνωρίσω τις ανησυχίες που ακούω και διαβάζω πιο συχνά, πολλές από τις οποίες μοιράζομαι, και να εξηγήσω πώς σκέφτομαι γι’ αυτές.

Ένα πράγμα που είναι ξεκάθαρο από όλα όσα έχουν γραφτεί μέχρι τώρα για τους κινδύνους της τεχνητής νοημοσύνης -και έχουν γραφτεί πολλά- είναι ότι κανείς δεν έχει όλες τις απαντήσεις.

Ένα άλλο πράγμα που είναι ξεκάθαρο για μένα είναι ότι το μέλλον της τεχνητής νοημοσύνης δεν είναι τόσο ζοφερό όσο νομίζουν κάποιοι ή τόσο ρόδινο όσο νομίζουν άλλοι.

Οι κίνδυνοι είναι πραγματικοί, αλλά είμαι αισιόδοξος ότι μπορούν να διαχειριστούν.

Καθώς εξετάζω κάθε ανησυχία, θα επανέλθω σε μερικά θέματα:

Πολλά από τα προβλήματα που προκαλούνται από την τεχνητή νοημοσύνη έχουν ιστορικό προηγούμενο. Για παράδειγμα, θα έχει μεγάλο αντίκτυπο στην εκπαίδευση, αλλά το ίδιο έκαναν και οι αριθμομηχανές χειρός πριν από μερικές δεκαετίες και, πιο πρόσφατα, επέτρεψαν τους υπολογιστές στην τάξη. Μπορούμε να μάθουμε από αυτό που λειτούργησε στο παρελθόν.

Πολλά από τα προβλήματα που προκαλούνται από την τεχνητή νοημοσύνη μπορούν επίσης να αντιμετωπιστούν με τη βοήθεια της τεχνητής νοημοσύνης.

Θα χρειαστεί να προσαρμόσουμε τους παλιούς νόμους και να υιοθετήσουμε νέους – όπως ακριβώς οι υπάρχοντες νόμοι κατά της απάτης έπρεπε να προσαρμοστούν στον διαδικτυακό κόσμο.

Σε αυτήν την ανάρτηση, θα εστιάσω στους κινδύνους που υπάρχουν ήδη ή θα υπάρξουν σύντομα. Δεν ασχολούμαι με το τι συμβαίνει όταν αναπτύσσουμε μια τεχνητή νοημοσύνη που μπορεί να μάθει οποιοδήποτε θέμα ή εργασία, σε αντίθεση με τις σημερινές τεχνητές νοημοσύνης.

Είτε φτάσουμε σε αυτό το σημείο σε μια δεκαετία είτε σε έναν αιώνα, η κοινωνία θα χρειαστεί να υπολογίσει βαθιά ερωτήματα.

Τι γίνεται αν ένα σούπερ AI θέτει τους δικούς του στόχους; Τι γίνεται αν συγκρούονται με την ανθρωπότητα; Πρέπει να φτιάξουμε καν ένα super AI;

Αλλά η σκέψη για αυτούς τους πιο μακροπρόθεσμους κινδύνους δεν θα πρέπει να γίνει εις βάρος των πιο άμεσων. Θα απευθυνθώ σε αυτούς τώρα.

Deepfakes και παραπληροφόρηση που δημιουργούνται από την AI θα μπορούσαν να υπονομεύσουν τις εκλογές και τη δημοκρατία.

Η ιδέα ότι η τεχνολογία μπορεί να χρησιμοποιηθεί για τη διάδοση ψεμάτων και αναλήψεων δεν είναι νέα. Οι άνθρωποι το κάνουν με βιβλία και φυλλάδια εδώ και αιώνες. Έγινε πολύ πιο εύκολο με την εμφάνιση των επεξεργαστών κειμένου, των εκτυπωτών λέιζερ, των email και των κοινωνικών δικτύων.

Η τεχνητή νοημοσύνη αντιμετωπίζει αυτό το πρόβλημα του πλαστού κειμένου και το επεκτείνει, επιτρέποντας ουσιαστικά σε οποιονδήποτε να δημιουργήσει ψεύτικο ήχο και βίντεο, γνωστά ως deepfakes.

Εάν λάβετε ένα φωνητικό μήνυμα που ακούγεται σαν το παιδί σας να λέει «Με απήγαγαν, στείλτε 1.000 $ σε αυτόν τον τραπεζικό λογαριασμό μέσα στα επόμενα 10 λεπτά και μην καλέσετε την αστυνομία», θα έχει τρομακτικό συναισθηματικό αντίκτυπο, ακόμη μεγαλύτερο από την επίδραση ενός email που λέει το ίδιο πράγμα.

Σε μεγαλύτερη κλίμακα, τα deepfakes που δημιουργούνται από την τεχνητή νοημοσύνη θα μπορούσαν να χρησιμοποιηθούν για να προσπαθήσουν να ανατρέψουν τις εκλογές. Φυσικά, δεν χρειάζεται εξελιγμένη τεχνολογία για να σπείρετε αμφιβολίες για τον νόμιμο νικητή των εκλογών, αλλά η τεχνητή νοημοσύνη θα το κάνει ευκολότερο.

Υπάρχουν ήδη ψεύτικα βίντεο που προβάλλουν κατασκευασμένα πλάνα γνωστών πολιτικών. Φανταστείτε ότι το πρωί μιας μεγάλης εκλογής, ένα βίντεο που δείχνει έναν από τους υποψηφίους να ληστεύει μια τράπεζα γίνεται viral. Είναι ψεύτικο, αλλά χρειάζονται αρκετές ώρες τα ειδησεογραφικά πρακτορεία και η εκστρατεία για να το αποδείξουν. Πόσοι θα το δουν και θα αλλάξουν την ψήφο τους την τελευταία στιγμή; Θα μπορούσε να γείρει τη ζυγαριά, ειδικά σε κοντινές εκλογές.

Όταν ο συνιδρυτής του OpenAI Sam Altman κατέθεσε πρόσφατα ενώπιον μιας επιτροπής της Γερουσίας των ΗΠΑ, οι γερουσιαστές και από τα δύο κόμματα εξέτασαν τον αντίκτυπο της τεχνητής νοημοσύνης στις εκλογές και τη δημοκρατία. Ελπίζω αυτό το θέμα να συνεχίσει να βρίσκεται στην ατζέντα όλων.

Σίγουρα δεν έχουμε λύσει το πρόβλημα της παραπληροφόρησης και των deepfakes. Αλλά δύο πράγματα με κάνουν επιφυλακτικά αισιόδοξο. Το ένα είναι ότι οι άνθρωποι είναι ικανοί να μάθουν να μην παίρνουν τα πάντα στην ονομαστική τους αξία. Για χρόνια, οι χρήστες ηλεκτρονικού ταχυδρομείου έπεφταν σε απάτες όπου κάποιος που υποδυόταν τον Νιγηριανό πρίγκιπα υποσχόταν μια μεγάλη ανταμοιβή σε αντάλλαγμα για την κοινοποίηση του αριθμού της πιστωτικής σας κάρτας. Αλλά τελικά, οι περισσότεροι άνθρωποι έμαθαν να κοιτούν δύο φορές αυτά τα μηνύματα ηλεκτρονικού ταχυδρομείου. Καθώς οι απάτες έγιναν πιο εξελιγμένες, το ίδιο έκαναν και πολλοί από τους στόχους τους. Θα χρειαστεί να κάνουμε το ίδιο και για τα deepfakes.

Το άλλο πράγμα που με κάνει να ελπίζω είναι ότι η τεχνητή νοημοσύνη μπορεί να βοηθήσει στον εντοπισμό των deepfakes καθώς και στη δημιουργία τους. Η Intel, για παράδειγμα, έχει αναπτύξει έναν ανιχνευτή βαθιάς ψευδούς και η κυβερνητική υπηρεσία DARPA εργάζεται πάνω σε τεχνολογία για να προσδιορίσει εάν έχει γίνει χειραγώγηση βίντεο ή ήχου.

Αυτή θα είναι μια κυκλική διαδικασία: Κάποιος βρίσκει έναν τρόπο να ανιχνεύει την παραποίηση, κάποιος άλλος καταλαβαίνει πώς να το αντιμετωπίσει, κάποιος άλλος αναπτύσσει αντίμετρα και ούτω καθεξής. Δεν θα έχει απόλυτη επιτυχία, αλλά δεν θα είμαστε και αβοήθητοι.

Η τεχνητή νοημοσύνη διευκολύνει τις επιθέσεις σε ανθρώπους και κυβερνήσεις.

Σήμερα, όταν οι χάκερ θέλουν να βρουν εκμεταλλεύσιμα ελαττώματα στο λογισμικό, το κάνουν με ωμή βία – γράφοντας κώδικα που εξαφανίζει πιθανές αδυναμίες μέχρι να ανακαλύψουν έναν τρόπο να εισέλθουν. Περιλαμβάνει να πάνε σε πολλά τυφλά σοκάκια, πράγμα που σημαίνει ότι χρειάζεται χρόνος και υπομονή.

Οι ειδικοί σε θέματα ασφάλειας που θέλουν να αντιμετωπίσουν τους χάκερ πρέπει να κάνουν το ίδιο πράγμα. Κάθε ενημέρωση κώδικα λογισμικού που εγκαθιστάτε στο τηλέφωνο ή τον φορητό υπολογιστή σας αντιπροσωπεύει πολλές ώρες αναζήτησης, από άτομα με καλές και κακές προθέσεις.

Τα μοντέλα AI θα επιταχύνουν αυτή τη διαδικασία βοηθώντας τους χάκερ να γράφουν πιο αποτελεσματικό κώδικα. Θα μπορούν επίσης να χρησιμοποιούν δημόσιες πληροφορίες για άτομα, όπως το πού εργάζονται και ποιοι είναι οι φίλοι τους, για να αναπτύξουν επιθέσεις phishing που είναι πιο προηγμένες από αυτές που βλέπουμε σήμερα.

Τα καλά νέα είναι ότι η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί τόσο για καλούς όσο και για κακούς σκοπούς. Οι κυβερνητικές και οι ομάδες ασφαλείας του ιδιωτικού τομέα πρέπει να διαθέτουν τα πιο πρόσφατα εργαλεία για την εύρεση και τη διόρθωση ελαττωμάτων ασφαλείας προτού οι εγκληματίες μπορέσουν να τις εκμεταλλευτούν. Ελπίζω ότι η βιομηχανία ασφάλειας λογισμικού θα επεκτείνει το έργο που ήδη κάνουν σε αυτό το μέτωπο – θα πρέπει να τους απασχολεί ιδιαίτερα.

Αυτός είναι επίσης ο λόγος που δεν πρέπει να προσπαθήσουμε να εμποδίσουμε προσωρινά τους ανθρώπους να εφαρμόσουν νέες εξελίξεις στην τεχνητή νοημοσύνη, όπως έχουν προτείνει ορισμένοι.

Οι κυβερνοεγκληματίες δεν θα σταματήσουν να φτιάχνουν νέα εργαλεία. Ούτε οι άνθρωποι που θέλουν να χρησιμοποιήσουν την τεχνητή νοημοσύνη για να σχεδιάσουν πυρηνικά όπλα και βιοτρομοκρατικές επιθέσεις. Η προσπάθεια να τους σταματήσει πρέπει να συνεχιστεί με τον ίδιο ρυθμό.

Υπάρχει ένας σχετικός κίνδυνος σε παγκόσμιο επίπεδο: ένας αγώνας εξοπλισμών για την τεχνητή νοημοσύνη που μπορεί να χρησιμοποιηθεί για τον σχεδιασμό και την έναρξη κυβερνοεπιθέσεων εναντίον άλλων χωρών. Κάθε κυβέρνηση θέλει να έχει την πιο ισχυρή τεχνολογία ώστε να μπορεί να αποτρέψει τις επιθέσεις από τους αντιπάλους της.

Αυτό το κίνητρο να μην αφήσουμε κανέναν να προχωρήσει θα μπορούσε να πυροδοτήσει έναν αγώνα δρόμου για τη δημιουργία ολοένα και πιο επικίνδυνων όπλων στον κυβερνοχώρο. Όλοι θα ήταν χειρότεροι.

Αυτή είναι μια τρομακτική σκέψη, αλλά έχουμε ιστορία να μας καθοδηγήσει. Αν και το παγκόσμιο καθεστώς μη διάδοσης των πυρηνικών όπλων έχει τα ελαττώματα του, έχει αποτρέψει τον ολοκληρωτικό πυρηνικό πόλεμο που η γενιά μου φοβόταν τόσο πολύ όταν μεγαλώναμε. Οι κυβερνήσεις θα πρέπει να εξετάσουν το ενδεχόμενο δημιουργίας ενός παγκόσμιου φορέα για την τεχνητή νοημοσύνη παρόμοιο με τον Διεθνή Οργανισμό Ατομικής Ενέργειας .

Η τεχνητή νοημοσύνη θα αφαιρέσει τις δουλειές των ανθρώπων.

Τα επόμενα χρόνια, ο κύριος αντίκτυπος της τεχνητής νοημοσύνης στην εργασία θα είναι να βοηθήσει τους ανθρώπους να κάνουν τη δουλειά τους πιο αποτελεσματικά. Αυτό θα ισχύει είτε εργάζονται σε εργοστάσιο είτε σε γραφείο που διεκπεραιώνει κλήσεις πωλήσεων και πληρωτέους λογαριασμούς.

Τελικά, η τεχνητή νοημοσύνη θα είναι αρκετά καλή στο να εκφράζει ιδέες ώστε να μπορεί να γράφει τα email σας και να διαχειρίζεται τα εισερχόμενά σας για λογαριασμό σας. Θα μπορείτε να γράψετε ένα αίτημα σε απλά αγγλικά ή σε οποιαδήποτε άλλη γλώσσα και να δημιουργήσετε μια πλούσια παρουσίαση της δουλειάς σας.

Όπως υποστήριξα στην ανάρτησή μου τον Φεβρουάριο, είναι καλό για την κοινωνία όταν αυξάνεται η παραγωγικότητα. Δίνει στους ανθρώπους περισσότερο χρόνο να κάνουν άλλα πράγματα, στη δουλειά και στο σπίτι. Και η απαίτηση για ανθρώπους που βοηθούν άλλους -για παράδειγμα, διδάσκουν, φροντίζουν τους ασθενείς και υποστηρίζουν τους ηλικιωμένους- δεν θα εξαφανιστεί ποτέ. Αλλά είναι αλήθεια ότι ορισμένοι εργαζόμενοι θα χρειαστούν υποστήριξη και επανεκπαίδευση καθώς κάνουμε αυτή τη μετάβαση σε έναν χώρο εργασίας με τεχνητή νοημοσύνη. Αυτός είναι ένας ρόλος για τις κυβερνήσεις και τις επιχειρήσεις και θα πρέπει να τον διαχειριστούν σωστά, ώστε οι εργαζόμενοι να μην μείνουν πίσω – για να αποφευχθεί το είδος της αναστάτωσης στη ζωή των ανθρώπων που συνέβη κατά τη διάρκεια της παρακμής των θέσεων εργασίας στη μεταποίηση στις Ηνωμένες Πολιτείες.

Επίσης, λάβετε υπόψη ότι δεν είναι η πρώτη φορά που μια νέα τεχνολογία προκαλεί μεγάλη αλλαγή στην αγορά εργασίας. Δεν νομίζω ότι ο αντίκτυπος του AI θα είναι τόσο δραματικός όσο η Βιομηχανική Επανάσταση, αλλά σίγουρα θα είναι τόσο μεγάλος όσο η εισαγωγή του υπολογιστή.

Οι εφαρμογές επεξεργασίας κειμένου δεν κατάργησαν την εργασία γραφείου, αλλά την άλλαξαν για πάντα. Εργοδότες και εργαζόμενοι έπρεπε να προσαρμοστούν, και το έκαναν. Η μετατόπιση που προκαλείται από την τεχνητή νοημοσύνη θα είναι μια ανώμαλη μετάβαση, αλλά υπάρχει κάθε λόγος να πιστεύουμε ότι μπορούμε να μειώσουμε τη διαταραχή στη ζωή και τη διαβίωση των ανθρώπων.

Η τεχνητή νοημοσύνη κληρονομεί τις προκαταλήψεις μας και φτιάχνει τα πράγματα.

Οι ψευδαισθήσεις -ο όρος όταν μια τεχνητή νοημοσύνη ισχυρίζεται με σιγουριά ότι απλώς δεν είναι αλήθεια- συνήθως συμβαίνουν επειδή το μηχάνημα δεν κατανοεί το πλαίσιο για το αίτημά σας. Ζητήστε από ένα AI να γράψει μια σύντομη ιστορία σχετικά με τις διακοπές σας στο φεγγάρι και μπορεί να σας δώσει μια πολύ ευφάνταστη απάντηση. Αλλά ζητήστε του να σας βοηθήσει να σχεδιάσετε ένα ταξίδι στην Τανζανία και μπορεί να προσπαθήσει να σας στείλει σε ένα ξενοδοχείο που δεν υπάρχει.

Ένας άλλος κίνδυνος με την τεχνητή νοημοσύνη είναι ότι αντανακλά ή ακόμη και επιδεινώνει τις υπάρχουσες προκαταλήψεις εναντίον ατόμων συγκεκριμένων φύλων, φυλών, εθνοτήτων και ούτω καθεξής.

Για να κατανοήσετε γιατί συμβαίνουν παραισθήσεις και προκαταλήψεις, είναι σημαντικό να γνωρίζετε πώς λειτουργούν τα πιο κοινά μοντέλα τεχνητής νοημοσύνης σήμερα. Είναι ουσιαστικά πολύ εξελιγμένες εκδόσεις του κώδικα που επιτρέπει στην εφαρμογή email σας να προβλέψει την επόμενη λέξη που πρόκειται να πληκτρολογήσετε: Σαρώνουν τεράστιες ποσότητες κειμένου – σχεδόν ό,τι είναι διαθέσιμο στο διαδίκτυο, σε ορισμένες περιπτώσεις – και το αναλύουν για να βρουν μοτίβα στο ανθρώπινη γλώσσα.

Όταν κάνετε μια ερώτηση σε μια τεχνητή νοημοσύνη, εξετάζει τις λέξεις που χρησιμοποιήσατε και στη συνέχεια αναζητά κομμάτια κειμένου που συχνά σχετίζονται με αυτές τις λέξεις. Αν γράψετε «αναφέρετε τα συστατικά για τηγανίτες», μπορεί να παρατηρήσετε ότι οι λέξεις «αλεύρι, ζάχαρη, αλάτι, μπέικιν πάουντερ, γάλα και αυγά» εμφανίζονται συχνά με αυτήν τη φράση.

Στη συνέχεια, με βάση αυτά που γνωρίζει για τη σειρά με την οποία εμφανίζονται συνήθως αυτές οι λέξεις, δημιουργεί μια απάντηση. (Τα μοντέλα AI που λειτουργούν με αυτόν τον τρόπο χρησιμοποιούν αυτό που ονομάζεται μετασχηματιστής. Το GPT-4 είναι ένα τέτοιο μοντέλο.)

Αυτή η διαδικασία εξηγεί γιατί μια τεχνητή νοημοσύνη μπορεί να έχει παραισθήσεις ή να φαίνεται να είναι προκατειλημμένος. Δεν έχει κανένα πλαίσιο για τις ερωτήσεις που κάνετε ή τα πράγματα που του λέτε. Αν πείτε σε κάποιον ότι έκανε λάθος, μπορεί να πει, «Συγγνώμη, το έγραψα λάθος».

Αλλά αυτό είναι μια παραίσθηση – δεν πληκτρολογούσε τίποτα. Λέει μόνο ότι επειδή έχει σαρώσει αρκετό κείμενο για να γνωρίζει ότι το «Συγγνώμη, το έγραψα λάθος» είναι μια πρόταση που οι άνθρωποι γράφουν συχνά αφού κάποιος τη διορθώσει.

Ομοίως, τα μοντέλα τεχνητής νοημοσύνης κληρονομούν όποιες προκαταλήψεις εμπεριέχονται στο κείμενο στο οποίο εκπαιδεύονται. Αν κάποιος διαβάσει πολλά, ας πούμε, για τους γιατρούς, και το κείμενο αναφέρει κυρίως άνδρες γιατρούς, τότε οι απαντήσεις του θα υποθέσουν ότι οι περισσότεροι γιατροί είναι άνδρες.

Αν και ορισμένοι ερευνητές πιστεύουν ότι οι παραισθήσεις είναι ένα εγγενές πρόβλημα, δεν συμφωνώ. Είμαι αισιόδοξος ότι, με την πάροδο του χρόνου, τα μοντέλα τεχνητής νοημοσύνης μπορούν να διδαχθούν να διακρίνουν τα γεγονότα από τη φαντασία. Το OpenAI, για παράδειγμα, κάνει πολλά υποσχόμενη δουλειά σε αυτό το μέτωπο.

Άλλοι οργανισμοί, συμπεριλαμβανομένου του Ινστιτούτου Alan Turing και του Εθνικού Ινστιτούτου Προτύπων και Τεχνολογίας , εργάζονται για το πρόβλημα της προκατάληψης. Μια προσέγγιση είναι η οικοδόμηση ανθρώπινων αξιών και λογικής υψηλότερου επιπέδου στην τεχνητή νοημοσύνη.

Είναι ανάλογο με τον τρόπο που λειτουργεί ένας άνθρωπος με επίγνωση του εαυτού του: Ίσως υποθέτετε ότι οι περισσότεροι γιατροί είναι άνδρες, αλλά έχετε αρκετά συνειδητοποιήσει αυτήν την υπόθεση για να ξέρετε ότι πρέπει να το πολεμήσετε σκόπιμα. Η τεχνητή νοημοσύνη μπορεί να λειτουργήσει με παρόμοιο τρόπο, ειδικά εάν τα μοντέλα έχουν σχεδιαστεί από άτομα με διαφορετικά υπόβαθρα.

Τέλος, όλοι όσοι χρησιμοποιούν τεχνητή νοημοσύνη πρέπει να γνωρίζουν το πρόβλημα μεροληψίας και να γίνουν ενημερωμένοι χρήστες. Το δοκίμιο που ζητάτε από μια τεχνητή νοημοσύνη να συντάξει θα μπορούσε να είναι τόσο γεμάτο με προκαταλήψεις όσο και με πραγματικά λάθη. Θα χρειαστεί να ελέγξετε τις προκαταλήψεις του AI σας καθώς και τις δικές σας.

Οι μαθητές δεν θα μάθουν να γράφουν γιατί η τεχνητή νοημοσύνη θα κάνει τη δουλειά για αυτούς.

Πολλοί δάσκαλοι ανησυχούν για τους τρόπους με τους οποίους η τεχνητή νοημοσύνη θα υπονομεύσει τη δουλειά τους με τους μαθητές. Σε μια εποχή που οποιοσδήποτε με πρόσβαση στο Διαδίκτυο μπορεί να χρησιμοποιήσει την τεχνητή νοημοσύνη για να γράψει ένα αξιοσέβαστο πρώτο προσχέδιο ενός δοκιμίου, τι μπορεί να εμποδίσει τους μαθητές να το μετατρέψουν ως δικό τους έργο;

Υπάρχουν ήδη εργαλεία τεχνητής νοημοσύνης που μαθαίνουν να διακρίνουν εάν κάτι γράφτηκε από ένα άτομο ή από έναν υπολογιστή, ώστε οι δάσκαλοι να μπορούν να πουν πότε οι μαθητές τους δεν κάνουν τη δουλειά τους. Αλλά ορισμένοι δάσκαλοι δεν προσπαθούν να εμποδίσουν τους μαθητές τους να χρησιμοποιούν τεχνητή νοημοσύνη στη γραφή τους – στην πραγματικότητα το ενθαρρύνουν.

Τον Ιανουάριο, μια βετεράνος δασκάλα αγγλικών με το όνομα Cherie Shields έγραψε ένα άρθρο στο Education Week σχετικά με το πώς χρησιμοποιεί το ChatGPT στην τάξη της.

Έχει βοηθήσει τους μαθητές της με τα πάντα, από το να ξεκινήσουν ένα δοκίμιο μέχρι να γράψουν περιγράμματα και ακόμη και να τους δώσει σχόλια για τη δουλειά τους.

«Οι δάσκαλοι θα πρέπει να αγκαλιάσουν την τεχνολογία AI ως ένα άλλο εργαλείο στο οποίο έχουν πρόσβαση οι μαθητές», έγραψε. «Ακριβώς όπως κάποτε διδάξαμε στους μαθητές πώς να κάνουν μια σωστή αναζήτηση στο Google, οι δάσκαλοι θα πρέπει να σχεδιάσουν ξεκάθαρα μαθήματα σχετικά με το πώς το ρομπότ ChatGPT μπορεί να βοηθήσει στη συγγραφή δοκιμίων.

Η αναγνώριση της ύπαρξης της τεχνητής νοημοσύνης και η βοήθεια των μαθητών να εργαστούν μαζί της θα μπορούσε να φέρει επανάσταση στον τρόπο διδασκαλίας μας». Δεν έχει κάθε δάσκαλος το χρόνο να μάθει και να χρησιμοποιήσει ένα νέο εργαλείο, αλλά εκπαιδευτικοί όπως η Cherie Shields προβάλλουν ένα καλό επιχείρημα ότι όσοι το κάνουν θα ωφεληθούν πολύ.

Μου θυμίζει την εποχή που οι ηλεκτρονικές αριθμομηχανές έγιναν ευρέως διαδεδομένες τις δεκαετίες του 1970 και του 1980. Μερικοί καθηγητές μαθηματικών ανησυχούσαν ότι οι μαθητές θα σταματήσουν να μαθαίνουν πώς να κάνουν βασική αριθμητική, αλλά άλλοι αγκάλιασαν τη νέα τεχνολογία και επικεντρώθηκαν στις δεξιότητες σκέψης πίσω από την αριθμητική.

Υπάρχει ένας άλλος τρόπος με τον οποίο η τεχνητή νοημοσύνη μπορεί να βοηθήσει στη γραφή και την κριτική σκέψη. Ειδικά αυτές τις πρώτες μέρες, όταν οι παραισθήσεις και οι προκαταλήψεις εξακολουθούν να αποτελούν πρόβλημα, οι εκπαιδευτικοί μπορούν να ζητήσουν από την τεχνητή νοημοσύνη να δημιουργήσει άρθρα και στη συνέχεια να συνεργαστούν με τους μαθητές τους για να ελέγξουν τα γεγονότα.

Εκπαιδευτικοί μη κερδοσκοπικοί οργανισμοί, όπως το Khan Academy και το OER Project , το οποίο χρηματοδοτώ, προσφέρουν σε δασκάλους και μαθητές δωρεάν διαδικτυακά εργαλεία που δίνουν μεγάλη έμφαση στη δοκιμή των ισχυρισμών. Λίγες δεξιότητες είναι πιο σημαντικές από το να ξέρεις πώς να ξεχωρίζεις τι είναι αληθινό από αυτό που είναι ψευδές.

Πρέπει να βεβαιωθούμε ότι το εκπαιδευτικό λογισμικό συμβάλλει στη κάλυψη του χάσματος επιδόσεων, αντί να το χειροτερεύει. Το σημερινό λογισμικό είναι ως επί το πλείστον προσανατολισμένο προς την ενδυνάμωση των μαθητών που έχουν ήδη κίνητρα. Μπορεί να αναπτύξει ένα σχέδιο μελέτης για εσάς, να σας υποδείξει καλούς πόρους και να δοκιμάσει τις γνώσεις σας. Αλλά δεν ξέρει ακόμα πώς να σας προσελκύσει σε ένα θέμα που δεν σας ενδιαφέρει ήδη. Αυτό είναι ένα πρόβλημα που θα πρέπει να λύσουν οι προγραμματιστές, ώστε οι μαθητές όλων των τύπων να μπορούν να επωφεληθούν από την τεχνητή νοημοσύνη.

Τι έπεται;

Πιστεύω ότι υπάρχουν περισσότεροι λόγοι από το να μην είμαστε αισιόδοξοι ότι μπορούμε να διαχειριστούμε τους κινδύνους της τεχνητής νοημοσύνης μεγιστοποιώντας τα οφέλη τους. Πρέπει όμως να προχωρήσουμε γρήγορα.

Οι κυβερνήσεις πρέπει να αποκτήσουν τεχνογνωσία στην τεχνητή νοημοσύνη, ώστε να μπορούν να θεσπίζουν ενημερωμένους νόμους και κανονισμούς που ανταποκρίνονται σε αυτή τη νέα τεχνολογία. Θα χρειαστεί να αντιμετωπίσουν την παραπληροφόρηση και τις πλαστογραφίες, τις απειλές για την ασφάλεια, τις αλλαγές στην αγορά εργασίας και τον αντίκτυπο στην εκπαίδευση.

Για να αναφέρω μόνο ένα παράδειγμα: Ο νόμος πρέπει να είναι σαφής σχετικά με το ποιες χρήσεις των deepfakes είναι νόμιμες και σχετικά με το πώς πρέπει να επισημαίνονται τα deepfakes, ώστε όλοι να καταλαβαίνουν πότε κάτι που βλέπουν ή ακούνε δεν είναι γνήσιο

Οι πολιτικοί ηγέτες θα πρέπει να είναι εξοπλισμένοι για να έχουν ενημερωμένο, στοχαστικό διάλογο με τους ψηφοφόρους τους. Θα πρέπει επίσης να αποφασίσουν πόσο θα συνεργαστούν με άλλες χώρες σε αυτά τα θέματα αντί να το κάνουν μόνοι τους.

Στον ιδιωτικό τομέα, οι εταιρείες τεχνητής νοημοσύνης πρέπει να συνεχίσουν το έργο τους με ασφάλεια και υπευθυνότητα. Αυτό περιλαμβάνει την προστασία του απορρήτου των ανθρώπων, τη διασφάλιση ότι τα μοντέλα τεχνητής νοημοσύνης τους αντικατοπτρίζουν βασικές ανθρώπινες αξίες, την ελαχιστοποίηση της προκατάληψης, τη διάδοση των πλεονεκτημάτων σε όσο το δυνατόν περισσότερους ανθρώπους και την αποτροπή χρήσης της τεχνολογίας από εγκληματίες ή τρομοκράτες.

Οι εταιρείες σε πολλούς τομείς της οικονομίας θα χρειαστεί να βοηθήσουν τους υπαλλήλους τους να κάνουν τη μετάβαση σε έναν εργασιακό χώρο με επίκεντρο την τεχνητή νοημοσύνη, ώστε να μην μείνει κανείς πίσω. Και οι πελάτες πρέπει πάντα να γνωρίζουν πότε αλληλεπιδρούν με ένα AI και όχι με έναν άνθρωπο.

Τέλος, ενθαρρύνω όλους να παρακολουθούν όσο το δυνατόν περισσότερο τις εξελίξεις στην τεχνητή νοημοσύνη. Είναι η πιο μεταμορφωτική καινοτομία που θα δει οποιοσδήποτε από εμάς στη διάρκεια της ζωής του και ένας υγιής δημόσιος διάλογος θα εξαρτηθεί από το ότι όλοι γνωρίζουν την τεχνολογία, τα οφέλη και τους κινδύνους της.

Τα οφέλη θα είναι τεράστια και ο καλύτερος λόγος για να πιστεύουμε ότι μπορούμε να διαχειριστούμε τους κινδύνους είναι ότι το έχουμε κάνει στο παρελθόν.

Πηγή gatesnotes.com