Φοβίζει η «φωνή» του ChatGPT - Μοιάζει εντυπωσιακά.. ανθρώπινη

H νέα φωνητική λειτουργία του ChatGPT μιμείται άριστα τον «χρωματισμό» της ανθρώπινης φωνής.

Προβληματισμούς για υπερβολική εξάρτηση με απρόβλεπτες συνέπειες εξέφρασε η OpenAI για τους χρήστες του ChatGPT, αναφερόμενη στη νέα φωνητική λειτουργία του εργαλείου, η οποία μιμείται άριστα τον «χρωματισμό» της ανθρώπινης φωνής.

Μέσω έκθεσης για την αξιολόγηση ασφαλείας του chatbot, η εταιρεία πληροφορικής πίσω από το ChatGPT δήλωσε ότι παρατήρησε πως οι χρήστες εκφράζουν αμοιβαίους δεσμούς με το εργαλείο τεχνητής νοημοσύνης. «Οι χρήστες θα μπορούσαν να δημιουργήσουν κοινωνικές σχέσεις με την τεχνητή νοημοσύνη, μειώνοντας την ανάγκη τους για ανθρώπινη αλληλεπίδραση – κάτι που ενδεχομένως θα ωφελούσε όσους είναι μοναχικοί, αλλά ενδέχεται να επηρεάσει τις υγιείς σχέσεις», αναφέρεται στην έκθεση. Επίσης αναφέρεται πως το άκουσμα πληροφοριών από ένα ρομπότ που μιμείται άριστα την ανθρώπινη φωνή θα μπορούσε να οδηγήσει τους χρήστες να εμπιστευτούν το εργαλείο περισσότερο από όσο θα έπρεπε, δεδομένου ότι η τεχνητή νοημοσύνη έχει αποδείξει στο παρελθόν ότι κάνει λάθη.

Πράγματι, η προηγμένη φωνητική λειτουργία του ChatGPT, που κυκλοφόρησε επί πληρωμή πριν λίγες ημέρες, ακούγεται εντυπωσιακά αληθοφανής. Ανταποκρίνεται στον χρήστη σε πραγματικό χρόνο, αν υπάρξει διακοπή προσαρμόζεται ανάλογα και μάλιστα αντιδρά όπως και οι άνθρωποι, παράγοντας ήχους γέλιου ή λέγοντας «χμμ». Το εργαλείο μπορεί επίσης να αξιολογήσει τη συναισθηματική κατάσταση του χρήστη με βάση τον τόνο της φωνής του.

Βιάζονται οι τεχνολογικές εταιρείες

Η έκθεση της OpenAI ουσιαστικά φέρνει στο προσκήνιο έναν πολύ μεγαλύτερο κίνδυνο γύρω από την τεχνητή νοημοσύνη: οι εταιρείες τεχνολογίας σπεύδουν να διοχετεύσουν στο κοινό τα νέα εργαλεία, τα οποία όπως λένε θα μπορούσαν να αλλάξουν άρδην τον τρόπο με τον οποίο ζούμε, εργαζόμαστε, κοινωνικοποιούμαστε και βρίσκουμε πληροφορίες. Τα νέα εργαλεία όμως φτάνουν στην αγορά με τόσο μεγάλη ταχύτητα, ώστε δεν μπορεί να αξιολογήσει κανείς το μέγεθος των επιπτώσεών τους εκ των προτέρων. Όπως συμβαίνει με πολλές τεχνολογικές εξελίξεις, οι εταιρείες έχουν συχνά μια ιδέα για το πώς μπορούν και πρέπει να χρησιμοποιηθούν τα εργαλεία τους, όμως οι χρήστες βρίσκουν νέες, διαφορετικές χρήσεις και εφαρμογές, συχνά με απρόβλεπτες συνέπειες.

«Είναι μεγάλη η ευθύνη των εταιρειών να το διαχειριστούν πραγματικά με ηθικό και υπεύθυνο τρόπο και όλα αυτά βρίσκονται σε φάση πειραματισμού αυτή τη στιγμή», είχε δηλώσει τον Ιούνιο στο CNN η Liesel Sharabi, καθηγήτρια του Κρατικού Πανεπιστημίου της Αριζόνα που μελετά την τεχνολογία και την ανθρώπινη επικοινωνία. «Ανησυχώ για τους ανθρώπους που δημιουργούν πραγματικά βαθιές σχέσεις με μια τεχνολογία που μπορεί να μην υπάρχει μακροπρόθεσμα και η οποία εξελίσσεται συνεχώς», είχε δηλώσει επίσης, αναφερόμενη και σε όσους αναπτύσσουν ερωτικές σχέσεις με το εργαλείο.

Η OpenAI επεσήμανε ότι οι σχέσεις των χρηστών με τη φωνητική λειτουργία του ChatGPT θα μπορούσαν επίσης με την πάροδο του χρόνου να επηρεάσουν το τι θεωρείται φυσιολογικό στις κοινωνικές αλληλεπιδράσεις. «Τα γλωσσικά μας μοντέλα… επιτρέπουν στους χρήστες να διακόπτουν (τη ροή της συζήτησης)…ανά πάσα στιγμή, κάτι που αν και είναι αναμενόμενο για ένα εργαλείο τεχνητής νοημοσύνης, θα ήταν αφύσικο στις ανθρώπινες αλληλεπιδράσεις», ανέφερε η εταιρεία στην έκθεση.

Προς το παρόν, η OpenAI δηλώνει ότι έχει δεσμευτεί να δημιουργεί εργαλεία AI με πυξίδα την ασφάλεια και σχεδιάζει να συνεχίσει να παρακολουθεί το ενδεχόμενο «συναισθηματικής εξάρτησης» των χρηστών από τα εργαλεία της.

moneyreview.gr με πληροφορίες από CNN

Διαβάστε επίσης: Στοίχημα δισεκατομμυρίων στα esports - Τα φανερά και τα κρυφά κίνητρα της Σαουδικής Αραβίας

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΑ