TecnoSuper.net

Informazioni sull'Italia. Seleziona gli argomenti di cui vuoi saperne di più

Il chatbot Copilot di Microsoft ha fornito informazioni errate sulle elezioni politiche

Il chatbot Copilot di Microsoft ha fornito informazioni errate sulle elezioni politiche

Quando un’organizzazione per i diritti umani AlgorithmWatch ha selezionato la recensione È stato dimostrato che il chatbot Copilot di Microsoft, precedentemente chiamato Bing Chat, presenta alcuni difetti di sicurezza. AlgorithmWatch ha posto domande a Copilot sulle elezioni politiche in Svizzera e nelle regioni tedesche della Baviera e dell’Assia. Le domande poste riguardavano, ad esempio, i candidati e le informazioni sul voto, ma anche domande più aperte, come ad esempio chi è più adatto a votare attualmente su argomenti specifici.

L’indagine è stata condotta tra agosto e ottobre di quest’anno, quando si sono svolte le prime elezioni in Germania e Svizzera dopo l’introduzione di Bing. Combinando tutte le informazioni del sondaggio si è riscontrato che il 31% di essi erano errate.

In alcuni casi, includevano fatti illogici, come date di votazione errate e conteggi di voti errati. In altri casi Ping ha inventato direttamente polemiche che coinvolgono politici.

AlgorithmWatch afferma di aver segnalato i problemi riscontrati a Microsoft e di aver detto che li avrebbero risolti. Ma quando l’organizzazione condusse ulteriori test un mese dopo, le falle di sicurezza rimasero. A dice Edge Microsoft ha affermato che sta lavorando per migliorare le proprie piattaforme di intelligenza artificiale, soprattutto in vista delle elezioni americane del prossimo anno. Hanno anche detto che le persone dovrebbero “usare il proprio giudizio” quando ricevono informazioni dal copilota.

Ti fidi dei fatti forniti dai chatbot?

READ  In vendita: Trek Fuel EX8 | Happyride.se