Γενική τεχνητή νοημοσύνη

Η γενική τεχνητή νοημοσύνη (IAG) αφορά μια τεχνητή νοημοσύνη ικανή να εκτελεί ή να μαθαίνει σχεδόν οποιαδήποτε γνωστική εργασία που χαρακτηρίζει τον άνθρωπο ή άλλα ζώα. Η δημιουργία τεχνητής νοημοσύνης γενικής χρήσης είναι ένας από τους κύριους στόχους εταιρειών όπως η OpenAI η DeepMind και η Anthropic. Αποτελεί επίσης σημαντικό θέμα της επιστημονικής φαντασίας και της μελλοντολογίας. Παρόλο που η GPT-4 έχει χαρακτηριστεί ως έχουσα «σπίθες γενικής τεχνητής νοημοσύνης» το 2024 δεν υπάρχει καμία τεχνητή νοημοσύνη που να θεωρείται συναινετικά γενική.

Αν και η γενική τεχνητή νοημοσύνη μπορεί να είναι πολύ χρήσιμη σε πολλούς τομείς, οι τρέχουσες μελέτες αξιολογούν τους πιθανούς κινδύνους αυτής της αναπτυσσόμενης τεχνολογίας. Ειδικότερα, οι κίνδυνοι της παραπληροφόρησης και της μαζικής ανεργίας. Σύμφωνα με εμπειρογνώμονες της ΤΝ, όπως ο Stuart Russell, ο Yoshua Bengio ή ο Geoffrey Hinton και άλλοι ερευνητές της ΤΝ, η απώλεια του ελέγχου θα μπορούσε επίσης να προκαλέσει υπαρξιακούς κινδύνους, όπως το τέλος της ανθρωπότητας.

Σύμφωνα με τους περισσότερους ειδικούς, η τεχνητή γενική νοημοσύνη (AGI στα αγγλικά) ή τεχνητή νοημοσύνη ανθρώπινου επιπέδου αναφέρεται στην ικανότητα μιας αυτόνομης μηχανής να εκτελεί όλες τις διανοητικές εργασίες που μπορεί να εκτελέσει ένας άνθρωπος. Αυτός ο αρκετά περιοριστικός ορισμός σημαίνει ότι μια τεχνητή νοημοσύνη μπορεί να παράγει κείμενο υψηλής ποιότητας και να είναι πολύ ταχύτερη από έναν άνθρωπο χωρίς να χαρακτηρίζεται ως «γενική», αν εξακολουθούν να υπάρχουν εργασίες που δεν εκτελούνται τόσο καλά όσο ένας άνθρωπος. Αντίθετα, το OpenAI ορίζει το IAG ως ένα εξαιρετικά αυτόνομο σύστημα ικανό να ξεπεράσει τον άνθρωπο στις περισσότερες εργασίες οικονομικού ενδιαφέροντος.

Ένα σύστημα εμπειρογνωμόνων, ή «στενή» ΤΝ είναι ένα δυνητικά πολύ ικανό υπολογιστικό σύστημα που λειτουργεί σε ένα περιορισμένο πλαίσιο, συχνά επικεντρωμένο σε μια συγκεκριμένη εργασία.

Ο όρος «ισχυρή τεχνητή νοημοσύνη», από την άλλη πλευρά, περιλαμβάνει συχνότερα μια φιλοσοφική έννοια της συνείδησης, πράγμα που σημαίνει ότι οι δυνατότητες της τεχνητής νοημοσύνης δεν αρκούν για να πούμε αν είναι «ισχυρή». Επομένως, μια τεχνητή νοημοσύνη μπορεί μερικές φορές να περιγράφεται ως «αδύναμη» με αυτή την έννοια, ανεξάρτητα από τις ικανότητές της, αν δεν έχει «συνείδηση». Αυτές οι έννοιες αναφέρονται στην υπόθεση της ισχυρής και της αδύναμης ΤΝ στο πείραμα σκέψης του επιχειρήματος του κινέζικου δωματίου.

Ο όρος τεχνητή υπέρ-ευφυΐα ή υπέρ-νοημοσύνη περιγράφει μια τεχνητή νοημοσύνη με διανοητικές ικανότητες πολύ ανώτερες από αυτές του ανθρώπου σε όλους σχεδόν τους τομείς. Οι ειδικοί δείχνουν μεγάλη αβεβαιότητα σχετικά με το πόσος χρόνος θα χρειαστεί για να μεταβούμε από μια τεχνική νοημοσύνη σε μια τεχνητή  υπέρ-ευφυΐα/υπέρ-νοημοσύνη, με εκτιμήσεις που κυμαίνονται από λιγότερο από μια ώρα έως αρκετές δεκαετίες, αν υποθέσουμε  ότι αυτό είναι εφικτό.

Ωστόσο, οι όροι αυτοί μπορεί να έχουν διαφορετικούς ορισμούς και οι ορισμοί αυτοί είναι αρκετά ασαφείς ώστε να είναι μερικές φορές δύσκολο να κατηγοριοποιηθεί μια τεχνητή νοημοσύνη.

Παραπληροφόρηση και χειραγώγηση

[Επεξεργασία | επεξεργασία κώδικα]

Η αυτόματη δημιουργία αξιόπιστων εικόνων ή κειμένων εξακολουθεί να είναι δυνατή. Για παράδειγμα, μια ψευδής εικόνα έκρηξης στο Πεντάγωνο στις 22 Μαΐου 2023, η οποία κοινοποιήθηκε από οικονομικούς λογαριασμούς και τα ρωσικά μέσα ενημέρωσης, προκάλεσε στιγμιαία πτώση  των  αμερικανικών χρηματιστηριακών τιμών  κατά 0,3%.  Το IAG θα μπορούσε ωστόσο να αποκτήσει καλύτερη κατανόηση του πλαισίου, να αλληλοεπιδράσει με άλλα εργαλεία και να είναι πιο πειστικό, στρατηγικό, εξατομικευμένο και αυτόνομο.

Η ικανότητα των μοντέλων τεχνητής νοημοσύνης να παράγουν περιεχόμενο πολύ γρήγορα και με χαμηλό κόστος θα μπορούσε να κατακλύσει το διαδίκτυο με αυτόματα παραγόμενα κείμενα, εικόνες ή βίντεο. Αυτός ο έλεγχος των πληροφοριών θα μπορούσε επίσης να αξιοποιηθεί από αυταρχικά καθεστώτα για σκοπούς επιτήρησης και ελέγχου. Αυτό θα μπορούσε να εντείνει τη διάδοση της παραπληροφόρησης και της προπαγάνδας. Μια προτεινόμενη λύση θα ήταν η ευρεία υιοθέτηση ψηφιακών συστημάτων που θα επέτρεπαν στους χρήστες να αποδεικνύουν ανώνυμα στο Διαδίκτυο ότι είναι άνθρωποι, γεγονός που θα επέτρεπε το αποτελεσματικό φιλτράρισμα των ψεύτικων λογαριασμών.