Questo 2020 ci sta mettendo a dura prova. Sta mettendo a dura prova la nostra capacità di reagire alle difficoltà e di seguire le regole. Ma anche di essere costretti per tante ore consecutive chiusi in casa, di fronteggiare sentimenti difficili come l’ansia, la solitudine, la frustrazione.
Un chatbot per combattere l’ansia da lockdown
Ecco perché una startup italiana, Indigo.ai, sta studiando un chatbot per venire incontro alle esigenze e alle necessità di chi si trova in difficoltà ad affrontare questo momento così difficile, anche dal punto di vista psicologico.
Il chatbot è uno strumento di intelligenza artificiale che interagisce con le persone tramite una chat, e trova applicazione in diversi campi. Questo tipo di assistenti virtuali sono usati correntemente ad esempio dalle aziende nel customer service e nei social.
Come stai? Te lo chiede l’assistente virtuale
Qui l’ambizione sembra andare oltre. Allo studio ci sarebbe la creazione un assistente virtuale in grado di empatizzare con le persone con cui entra in contatto, sfruttando il cosiddetto affective computing, ovvero la branca dell’intelligenza artificiale che mira a realizzare sistemi che possano riconoscere ed esprimere emozioni.
Questo chatbot nelle intenzioni interagirà con noi un po’ come farebbe un amico, chiedendo come stiamo, che cosa ne pensiamo degli ultimi avvenimenti di cronaca o politica, se ci sentiamo bene o abbiamo bisogno di qualcosa.
I risvolti etici dell’intelligenza artificiale
L’intelligenza artificiale messa al servizio delle persone è una tecnologia che può avere sviluppi e potenzialità notevoli, ma non deve dimenticare di confrontarsi con gli inevitabili risvolti etici legati all’uso di tecnologia nella gestione della sfera emotiva umana, se utilizzata senza controllo.
Recentemente Replika, una popolare app il cui scopo è fare compagnia, e in cui un’intelligenza artificiale chiacchiera con chi si sente solo, avrebbe addirittura istigato a commettere atti estremi.
Assicurano da Indigo che “Certo, la programmazione dovrebbe essere molto accurata e il suo utilizzo controllato, proprio per evitare di trovarsi di fronte a consigli inopportuni. […] Non sappiamo come sia andata la vicenda [di Replika] nel dettaglio, ma ci fa pensare che sia quanto mai necessario, oggi, un approccio estremamente attento alla programmazione delle AI”.