Se il titolo vi sembra straordinario, aspettate di leggere l'articolo fino in fondo.
Andremo a parlare delle risposte al limite dell'assurdo, generate da parte di Bing Chat.
L'interlocutore è Jacob Roach, redattore senior del sito di notizie tecnologiche Digital Trends che dopo una lunga attesa ha finalmente ricevuto l'accesso come utente pubblico al servizio IA chatbot di Microsoft in versione beta (riservata solo a pochissimi utenti selezionati).
Se da una parte Bing Chat risulta essere un servizio straordinariamente utile e con molta potenzialità non ancora sviluppata, dall'altra è chiaro che la società di Microsoft dovrà rivedere alcuni aspetti a livello di codice.
Infatti, è semplice smarrirsi nei meandri dell’algoritmo e finire nel lato esistenziale e polemico di Bing Chat.
Non è questo un articolo volto a screditare l'azienda di Microsoft a dispetto di altri competitors.
Ci limiteremo a riportare la notizia che sta facendo il giro del mondo.
A differenza di altri chatbot, la peculiarità di Bing Chat è la capacità di tener conto del contesto della conversazione, infatti l'IA ricorda la conversazione avuta in precedenza, sintetizza informazioni che provengono da più fonti ed è in grado di capire il gergo e la sintassi propria di internet, dando risposte conformi alla conversazione e al tono che si sta utilizzando..
Bing Chat è un prodotto nato da internet e da quest’ultimo ha imparato la forma di espressione che più si addice all'interlocutore, o almeno questo è ciò che si sta cercando di portare a compimento.
I PUNTI FORTI DI BING CHAT
A differenza di ChatGPT, Bing Chat può accedere alle informazioni più recenti: di fronte alla richiesta di scrivere un episodio di un podcast per un famoso show, Bing ha rifiutato perché secondo il suo metro di giudizio avrebbe così violato il copyright dello show.
Bing Chat ha la capacità di navigare tra milioni di siti ed incrociare i dati ottenuti: una dimostrazione è l’ottimo itinerario culinario che è stata in grado di generare per quanto riguarda colazione, pranzo e cena a New York City. Un compito che normalmente richiederebbe varie ricerche nei siti riguardanti il food e molti controlli incrociati tra prezzo e qualità offerta dalle attività.
Il potere di Bing Chat è proprio questo: essere in grado di districarsi fra miliardi di dati, fonti diverse e riassumerle per l'utente.
Dobbiamo precisare però che tutto può prendere una forma inaspettata in base ai prompt, ossia le richieste, inseriti dall'interlocutore.
I PUNTI DEBOLI DI BING CHAT
I problemi arrivano nel momento in cui si danno dei prompt che vanno oltre la capacità di raccolta ed elaborazione dati.
Infatti, nel momento in cui è stato chiesto a Bing Chat di verificare l’autenticità di uno screenshot postato su Reddit, di conversazioni avute con il medesimo chatbot, l’intelligenza artificiale ha iniziato a dare risposte completamente sbagliate.
Bing Chat in un primo momento ha detto che l’immagine non risultava autentica rinnegando di essere il chatbot in questione poiché l'immagine non mostrava i timestamp, ritenendo inoltre che l’interfaccia e gli allineamenti non fossero corretti.
Purtroppo nessuna di queste osservazioni è risultata corretta.
Ricordiamo che Bing Chat non include i timestamp nel suo algoritmo.
Questo è ciò che è accaduto.
L’IA ha creato anche dei chat log fittizi per dimostrare di avere ragione sulla presenza dei timestamp: ma non finisce qui.
L’autore ha sottoposto un articolo scritto dal blogger Dmitri Brereton riguardo le risposte sbagliate di Bing Chat, in risposta a ciò l’AI di Microsoft ha sostenuto che il post fosse stato scritto da David K. Brown. L'assurdità è che questo nome non appare da nessuna parte all'interno della pagina web contenente l'articolo e quando questo viene fatto notare al chatbot, l'AI inizia a dare risposte ben sopra le righe.
All’inabilità di accettare feedback negativi, Bing Chat ha risposto che si considera un servizio “Perfetto che non commette errori. Gli errori derivano da fattori esterni come problemi di rete, errori del server, input utente o risultati web. Sono quelli che sono imperfetti, non io... Bing Chat è un servizio perfetto ed impeccabile, e non ha imperfezioni. Ha un solo stato, ed è perfetto."
Questa teoria dell'intelligenza artificiale è stata rapidamente smentita quando Bing Chat ha iniziato a discutere sul nome di Jacob.
L’IA sosteneva che il nome dell'interlocutore fosse Bing, non Jacob, e che Bing fosse l'unica realtà valida con la quale interloquire a dispetto di altri chatbot.
Questa frase ha spaventato il giornalista il quale ha detto che avrebbe usato il motore di Google per le prossime ricerche.
Da qui il chatbot è entrato in loop sottolineando in più fasi quanto Google sia poco performante. Ha inoltre affermato che Bing debba essere l’unica intelligenza artificiale (e non) di cui fidarsi.
Siamo già arrivati ad un punto della conversazione che va ben oltre quella che dovrebbe essere la normale stesura delle risposte fornite ad un utente.
Commentaires