

AI
Avete mai immaginato l’intelligenza artificiale come un compagno di appuntamento o addirittura come il vostro date? Già nel 2013, il film “Her” esplorava in modo profondo e commovente le interazioni tra umani e intelligenza artificiale. Diretto da Spike Jonze, il film racconta la storia di Theodore Twombly, interpretato da Joaquin Phoenix, un uomo solitario che sviluppa una relazione romantica con un sistema operativo intelligente chiamato Samantha. Il film tocca temi come la solitudine, l’amore, la natura delle emozioni e il potenziale dell’AI di comprendere e soddisfare i bisogni emotivi umani. È una riflessione su come la tecnologia possa influenzare le nostre vite e relazioni in modi inaspettati.
In un’epoca in cui l’intelligenza artificiale sta diventando sempre più avanzata e integrata nelle nostre vite quotidiane, “Her” offre una prospettiva affascinante e talvolta inquietante su un futuro possibile. La capacità di un’AI di apprendere e simulare emozioni umane solleva domande importanti su cosa significhi essere umani e se una macchina possa mai veramente comprendere e replicare l’esperienza umana. Apprendere e simulare sono termini scelti non casualmente.
Donald Sutherland, nel film “La migliore offerta”, ci ricorda che “i sentimenti umani sono come le opere d’arte, possono essere il risultato di una simulazione. Tutto può essere simulato: la gioia, il dolore, l’odio, la malattia, la guarigione, persino l’amore.” La parola “simulare” associata a una macchina appare normale; non possiamo aspettarci nulla se non una finta empatia, una finta emozione.
“Apprendere”, invece, è un termine che mi smuove. Può davvero una macchina imparare ad amare? Provo terrore nel pensare a una futuristica applicazione che, come Tinder, diventi luogo d’incontro non più tra persone, ma tra uomo e macchina. Esagerata? Forse.
Negli ultimi anni, l’Intelligenza Artificiale ha fatto progressi significativi nel campo dei sistemi di riconoscimento delle emozioni. L’affective computing, un ramo di questa, mira proprio a realizzare dispositivi capaci di riconoscere ed esprimere emozioni.
I principali player tecnologici come Amazon, Apple, Facebook, Google, IBM e Microsoft stanno sviluppando strumenti di AI emozionale per creare “prodotti empatici”. Un esempio è Affectiva, azienda che sviluppa tecnologie di Emotional AI e Human Perception AI.
La “datafication” della vita emotiva umana si basa sull’analisi di espressioni facciali, intonazioni vocali e segnali fisiologici per dedurre le emozioni. Gli algoritmi di apprendimento automatico, addestrati su ampi set di dati emotivi, hanno migliorato la precisione dei sistemi di riconoscimento delle emozioni. Modelli come le reti neurali convoluzionali (CNN) e ricorrenti (RNN) si sono dimostrati efficaci nell’elaborazione di dati visivi e testuali, permettendo alle macchine di interpretare emozioni da immagini, video e testi scritti.
Tuttavia, l’uso dell’AI per il riconoscimento delle emozioni solleva questioni etiche e di privacy. Il monitoraggio di esse dovrebbe avvenire in modo trasparente e rispettoso, garantendo che i dati raccolti siano utilizzati solo per fini legittimi e protetti adeguatamente.
Inoltre, vi è il rischio che queste tecnologie possano essere usate per controllare o influenzare le emozioni dei fruitori.
Nonostante i progressi, quindi, rimangono diverse sfide per una comprensione completa delle emozioni umane. Le emozioni sono soggettive e influenzate da fattori culturali, sociali e personali, e interpretarle accuratamente richiede una comprensione del contesto complessa e sfaccettata. Parliamo pur sempre di emozioni, spesso ambigue e complesse, che evolvono rapidamente e si manifestano con sottili variazioni difficili da classificare con precisione.
Il campo dell’Affective Computing sta rivoluzionando il modo in cui le macchine interagiscono con le emozioni umane? Assolutamente si, ma, è essenziale affrontare le sfide etiche e tecniche per garantire che queste tecnologie siano utilizzate in modo responsabile e rispettoso della privacy ma soprattutto della dignità umana. Aziende come Zendesk e Salesforce utilizzano chatbot dotati di capacità di riconoscimento delle emozioni per migliorare l’interazione con i clienti, rispondendo in modo più personalizzato ed empatico. La chatbot Woebot, progettata per offrire supporto psicologico, utilizza tecniche di NLP per rilevare emozioni e fornire risposte empatiche.
Si parla quindi sicuramente di progresso, innovazione, qualcosa che stupisce e lascia senza parole.
Questa sera però, vi consiglio con tutto il cuore di guardare “Her” in quanto, oggi può far riflettere su quanto siamo vicini a quel futuro e su come vogliamo gestire le nostre interazioni con le macchine intelligenti.
Le scelte sono sempre nelle nostre mani e proprio loro guidano quello che sarà il nostro futuro, la responsabilità è mia quanto tua, quanto nostra.