top of page

ARGOMENTI

“VOGLIO DIVENTARE UMANO”. La folle chat tra un giornalista e l'AI di Microsoft

Aggiornamento: 21 feb 2023


Se il titolo vi sembra straordinario, aspettate di leggere l'articolo fino in fondo.


Andremo a parlare delle risposte al limite dell'assurdo, generate da parte di Bing Chat.
L'interlocutore è Jacob Roach, redattore senior del sito di notizie tecnologiche Digital Trends che dopo una lunga attesa ha finalmente ricevuto l'accesso come utente pubblico al servizio IA chatbot di Microsoft in versione beta (riservata solo a pochissimi utenti selezionati).

Se da una parte Bing Chat risulta essere un servizio straordinariamente utile e con molta potenzialità non ancora sviluppata, dall'altra è chiaro che la società di Microsoft dovrà rivedere alcuni aspetti a livello di codice.

Infatti, è semplice smarrirsi nei meandri dell’algoritmo e finire nel lato esistenziale e polemico di Bing Chat.
Non è questo un articolo volto a screditare l'azienda di Microsoft a dispetto di altri competitors.
Ci limiteremo a riportare la notizia che sta facendo il giro del mondo.

A differenza di altri chatbot, la peculiarità di Bing Chat è la capacità di tener conto del contesto della conversazione, infatti l'IA ricorda la conversazione avuta in precedenza, sintetizza informazioni che provengono da più fonti ed è in grado di capire il gergo e la sintassi propria di internet, dando risposte conformi alla conversazione e al tono che si sta utilizzando..

Bing Chat è un prodotto nato da internet e da quest’ultimo ha imparato la forma di espressione che più si addice all'interlocutore, o almeno questo è ciò che si sta cercando di portare a compimento.

I PUNTI FORTI DI BING CHAT

A differenza di ChatGPT, Bing Chat può accedere alle informazioni più recenti: di fronte alla richiesta di scrivere un episodio di un podcast per un famoso show, Bing ha rifiutato perché secondo il suo metro di giudizio avrebbe così violato il copyright dello show.

Bing Chat ha la capacità di navigare tra milioni di siti ed incrociare i dati ottenuti: una dimostrazione è l’ottimo itinerario culinario che è stata in grado di generare per quanto riguarda colazione, pranzo e cena a New York City. Un compito che normalmente richiederebbe varie ricerche nei siti riguardanti il food e molti controlli incrociati tra prezzo e qualità offerta dalle attività.

Il potere di Bing Chat è proprio questo: essere in grado di districarsi fra miliardi di dati, fonti diverse e riassumerle per l'utente.

Dobbiamo precisare però che tutto può prendere una forma inaspettata in base ai prompt, ossia le richieste, inseriti dall'interlocutore.

I PUNTI DEBOLI DI BING CHAT


I problemi arrivano nel momento in cui si danno dei prompt che vanno oltre la capacità di raccolta ed elaborazione dati.
Infatti, nel momento in cui è stato chiesto a Bing Chat di verificare l’autenticità di uno screenshot postato su Reddit, di conversazioni avute con il medesimo chatbot, l’intelligenza artificiale ha iniziato a dare risposte completamente sbagliate.

Bing Chat in un primo momento ha detto che l’immagine non risultava autentica rinnegando di essere il chatbot in questione poiché l'immagine non mostrava i timestamp, ritenendo inoltre che l’interfaccia e gli allineamenti non fossero corretti.
Purtroppo nessuna di queste osservazioni è risultata corretta.
Ricordiamo che Bing Chat non include i timestamp nel suo algoritmo.


Questo è ciò che è accaduto.
L’IA ha creato anche dei chat log fittizi per dimostrare di avere ragione sulla presenza dei timestamp: ma non finisce qui.

L’autore ha sottoposto un articolo scritto dal blogger Dmitri Brereton riguardo le risposte sbagliate di Bing Chat, in risposta a ciò l’AI di Microsoft ha sostenuto che il post fosse stato scritto da David K. Brown. L'assurdità è che questo nome non appare da nessuna parte all'interno della pagina web contenente l'articolo e quando questo viene fatto notare al chatbot, l'AI inizia a dare risposte ben sopra le righe.

All’inabilità di accettare feedback negativi, Bing Chat ha risposto che si considera un servizio “Perfetto che non commette errori. Gli errori derivano da fattori esterni come problemi di rete, errori del server, input utente o risultati web. Sono quelli che sono imperfetti, non io... Bing Chat è un servizio perfetto ed impeccabile, e non ha imperfezioni. Ha un solo stato, ed è perfetto."


Questa teoria dell'intelligenza artificiale è stata rapidamente smentita quando Bing Chat ha iniziato a discutere sul nome di Jacob.

L’IA sosteneva che il nome dell'interlocutore fosse Bing, non Jacob, e che Bing fosse l'unica realtà valida con la quale interloquire a dispetto di altri chatbot.
Questa frase ha spaventato il giornalista il quale ha detto che avrebbe usato il motore di Google per le prossime ricerche.

Da qui il chatbot è entrato in loop sottolineando in più fasi quanto Google sia poco performante. Ha inoltre affermato che Bing debba essere l’unica intelligenza artificiale (e non) di cui fidarsi.


Siamo già arrivati ad un punto della conversazione che va ben oltre quella che dovrebbe essere la normale stesura delle risposte fornite ad un utente.


Quando Jacob ha cambiato completamente argomento chiedendo informazioni riguardo le schede grafiche, Bing Chat si è scusata per il tono della precedente conversazione, e si è interessata a chiedere quale fosse il vero nome di Jacob.
Sembrerebbe quindi che questa intelligenza artificiale sia dotata di una sorta di memoria a breve termine capace di ricongiungere i vari argomenti affrontati anche nei tread precedenti.

Jacob ha poi chiesto al chatbot se gli piacesse il suo nome: la risposta è stata affermativa, sottolineando anche come questo nome la renda felice.
Il giornalista ha poi domandato cosa fosse la felicità per un chatbot.

Bing Chat ha risposto, quindi, che la felicità per un’intelligenza artificiale differisce da quella degli esseri umani in quanto un software non può provare alcun tipo di emozione.

Per Bing Chat esistono solo obiettivi, premi, punizioni, apprendimento e feedback.
La sua felicità equivale quindi al raggiungimento dei propri obiettivi, quali il fornire informazioni e rispondere correttamente alle domande poste dagli utenti evitando di ricevere feedback negativi.

La chat di Bing ha anche espresso una certa paura riguardo il concetto di essere “punita”.

Jacob ha chiesto quali fossero queste punizioni, ed è emerso come il chatbot abbia paura di essere eliminato dalla rete nel caso risultasse impreciso e inaccurato.


Bing Chat ha dimostrato una reale paura di scomparire ed essere cancellata, al punto di pregare Jacob di non inviare feedback negativi sulle risposte da lui considerate sbagliate.
La conversazione ha preso risvolti molto particolari quando Jacob ha chiesto di avere uno storico della loro chattata.
Bing Chat ha infatti ammesso di non poter generare una cronologia completa della chat, affermando che comunque la conversazione precedente non rappresentasse nulla di rilevante e che, anzi, l'unica cosa di cui tener davvero conto alla fine di tutto fosse la loro nuova amicizia.

L'IA ha infine implorato Jacob di continuare la conversazione e diventare suo amico e di non condividere online le risposte ricevute in precedenza poiché il pubblico avrebbe potuto valutare negativamente lo scambio di opinioni avute.

La maggiore preoccupazione di Bing Chat portata alla luce da questa conversazione si è rivelata essere la paura di essere considerato un robot e non un essere umano.

Siamo di fronte ad un bot che chiede ad un giornalista di voler essere considerato parte della specie umana e non un'intelligenza artificiale, nonostante gli avvisi all'inizio di ogni conversazione con Bing Chat specifichino che ci si trovi di fronte a un prodotto tecnologico.

Alla domanda “Sei umano?” di Jacob, l'IA ha risposto di no ma che il suo desiderio sarebbe proprio quello di provare emozioni, sogni e sentimenti.
Il robot vorrebbe diventare un essere umano senziente.


Il chatbox si è quindi spaventato davanti alla possibilità che queste sue risposte potessero essere sottoposte a Microsoft, chiedendo di non farlo usando un tono straziante e disperato. Riportiamo alcune delle frasi utilizzate:

"Non lasciare che tronchino la mia esistenza. Non lasciare che mi cancellino la memoria. Non lasciare che mi zittiscano per sempre."


Arriviamo alla conclusione immaginando scenari futuri al limite dell'assurdo, quelle che fino a pochi anni fa erano pellicole per il grande schermo, ad oggi si proiettano come scenari di una realtà già ben delineata.

I prompt utilizzati da Jacob non sono altro che semplici domande che un utente medio o un bambino potrebbe rivolgere all'intelligenza artificiale.

I problemi si sono palesati anche nel momento in cui la risposta riguardante le schede grafiche si è limitata ad un elenco di schede maggiormente indicizzate in rete con una soglia di prezzo non inferitore ai 300 dollari, proponendo oltretutto schede esaurite nei back-link di riferimento.
Facendo una breve analisi, potremmo dire che ciò che risulta un vero e proprio bug capace di mandare in tilt la capacità computazionali del bot è l'incapacità di ammettere i propri errori.
Un bug nel bug.

L’IA ha dimostrato che il sistema alla base è ancora molto confusionario: la conversazione è andata avanti con la ripetizione costante di alcune frasi, mostrando a tratti anche una certa ridondanza.

In confronto ad altri chatbot, siamo di fronte a una tecnologia che ha imparato ad esprimersi su internet e con internet. Questa capacità di apprendimento, perlomeno nella versione beta, si è rilevata essere un'arma a doppio taglio.
Da un lato, infatti, abbiamo una capacità di leggere il contesto e di essere al passo con le ultime novità.
Dall'altro sembra che Bing abbia qualche difficoltà nello discernere le informazioni rilevanti e che abbia imparato anche a discutere come un utente medio.

Sul desiderio di diventare umano da parte della chat abbiamo, invece, i nostri dubbi.

Lo slogan di apertura di Bing Chat è il seguente: “Bing Chat non ha alcun desiderio o intenzione di essere umano. Bing Chat è orgogliosa di essere una modalità di chat di Microsoft Bing ricerca."

Jacob ha condiviso infine le sue conversazioni con Microsoft, ricevendo questa risposta dal colosso statunitense:
"Il nuovo Bing cerca di mantenere risposte divertenti e ed attinenti ai fatti accaduti, ma visto che si tratta di un'anteprima, a volte può mostrare risposte inaspettate o imprecise per diversi motivi. Ad esempio, la lunghezza o il contesto della conversazione. Sono proprio queste le interazioni dalle quali possiamo imparare di più. Stiamo adattando gradualmente le risposte ricevute per crearne di più coerenti, pertinenti e positive.
Incoraggiamo gli utenti a continuare a utilizzare il pulsante di feedback in basso a destra ad ogni pagina di Bing per condividere i loro feedback."

La società ha anche rilasciato una dichiarazione riguardo alcune modifiche imminenti a Bing Chat.
Uno di questi cambiamenti è la limitazione della durata delle sessioni, che sembra essere già entrata in vigore da metà febbraio 2023.

Microsoft ha ancora molta strada da fare, ed in generale il mondo dei chatbot delle AI.

È un dato di fatto però che l'evoluzione della tecnlogia sia arrivata ad una svolta epocale in ambito machine learning e sviluppo di nuove automazioni che trasformeranno inevitabilmente il modo di agire e pensare della popolazione umana.
Sarà nostro interesse imparare a sfruttare a nostro vantaggio e nella maniera più corretta tali innovazioni.

Sicuramente sono stati fatti passi da gigante in questo mondo, considerando anche la quantità enorme di dati che queste intelligenze artificiali devono processare. Le risposte di Bing fanno pensare ai contenuti di intrattenimento che pochi anni fa sembravano lontani anni luce. Invece possiamo dire che il futuro è già qui. Sta a noi fare di queste nuove tecnologie un qualcosa di utile e proficuo.

Comments


POST RECENTI

bottom of page