Linee guida e politiche per un uso responsabile dell’Intelligenza Artificiale Emotiva

See also in english language

Responsabilità come strumento di creazione di valore

La responsabilità sociale d'impresa può aiutare le aziende a migliorare la propria reputazione e costruire relazioni positive con le comunità, gestire i rischi e creare una maggiore stabilità a lungo termine. In generale, la responsabilità può essere utilizzata per costruire relazioni di fiducia con le parti interessate e per creare un ambiente aziendale più sostenibile e positivo.

È importante considerare le implicazioni etiche e sociali dell'uso dell'intelligenza artificiale emotiva 

Noi di MorphCast promuoviamo un uso etico di Emotion AI, incluso il rispetto dell'autonomia e della dignità degli individui. Non deve essere utilizzato per manipolare o ingannare le persone o per causare danni.

Adottiamo una governance e una supervisione appropriate per garantire che il nostro servizio di AI emotiva sia utilizzata in modo responsabile. Ciò include la definizione di linee guida e politiche per il suo utilizzo, nonché la presenza di meccanismi per monitorare e imporre il rispetto di queste linee guida anche da parte dei nostri clienti. 

Questo è lo scopo delle linee guida elencate di seguito. Alcune di loro sono completamente sotto il nostro controllo. Ne siamo direttamente coinvolti e ci adoperiamo per seguirle e aggiornarle costantemente. Le elenchiamo in questa guida per completezza di informazione. Tuttavia, la maggior parte delle linee guida sono sotto il controllo dei nostri clienti. In merito a quest'ultimo punto, siamo costantemente impegnati a diffondere una cultura di uso consapevole di Emotion AI che rispetti i diritti umani e tutte le leggi sulla privacy, nonché il buon senso e l'impegno civile.

In generale, Emotion AI può essere utilizzata per migliorare l'interazione tra un sistema e un utente consentendo al sistema di rispondere in qualche modo alle emozioni dell'utente. Ecco alcuni modi più dettagliati in cui l'IA emotiva potrebbe essere utilizzata con vantaggio dall'industria e dagli individui:

  • Nell'industria dell'intrattenimento per creare esperienze più coinvolgenti e interattive per gli utenti. Ad esempio, l'intelligenza artificiale emozionale può essere utilizzata per formulare raccomandazioni personalizzate per i contenuti di intrattenimento in base alle emozioni dell'utente. In modo più innovativo, può essere utilizzata anche per creare esperienze di realtà virtuale o realtà aumentata che rispondano alle emozioni dell'utente.
  • Nel settore pubblicitario per creare pubblicità più personalizzate e mirate basate sulle emozioni del pubblico evitando così di tracciarne i comportamenti online e depositare cookie nei loro browser per essere bombardati da messaggi pubblicitari spesso obsoleti generati dal re-marketing programmatico. Un altro esempio: l'intelligenza artificiale delle emozioni può essere utilizzata per analizzare la risposta emotiva degli spettatori a diversi annunci pubblicitari e identificare quali annunci sono più efficaci nel suscitare determinate emozioni. Queste informazioni possono quindi essere utilizzate per personalizzare le pubblicità future per attrarre meglio le emozioni del pubblico di destinazione.
  • Miglioramento del servizio clienti. L'intelligenza artificiale emotiva può aiutare gli agenti del servizio clienti a comprendere meglio le emozioni dei propri clienti. Ciò potrebbe consentire loro di fornire un supporto più personalizzato ed efficace. Ad esempio, un sistema di intelligenza artificiale delle emozioni potrebbe essere utilizzato in un chatbot del servizio clienti per identificare quando un cliente si sente frustrato o turbato e fornire risposte appropriate per aiutare a risolvere il problema. L'intelligenza artificiale emozionale può essere utilizzata anche negli assistenti virtuali o negli assistenti personali per fornire raccomandazioni o risposte personalizzate basate sulle emozioni dell'utente.
  • Potenziare gli assistenti virtuali. Emotion AI può rendere gli assistenti virtuali più simili a quelli umani, consentendo loro di riconoscere e rispondere allo stato emotivo dell'utente.
  • Miglioramento della salute mentale: Emotion AI può aiutare a identificare le persone che potrebbero essere a rischio di sviluppare problemi di salute mentale. Può anche fornire loro supporto e risorse adeguate.
  • Migliorare l'istruzione: l'intelligenza artificiale emotiva può aiutare gli insegnanti a comprendere meglio lo stato emotivo dei loro studenti. Ciò può consentire loro di adattare i loro approcci di insegnamento per soddisfare meglio le esigenze dei loro studenti. Inoltre può misurare il grado di attenzione dello studente a un determinato contenuto. Non solo, ma può anche capire quando lo studente è perplesso o ha l’illuminazione tipica di chi ha capito un concetto, gli si accende la lampadina nel cervello. In base a questi dati emozionali, il corso può divenire veramente interattivo e personalizzato come un tutor umano ben addestrato al suo mestiere.
  • Addestrare ad avere espressioni positive nei colloqui di lavoro ed in ogni interazione con gli altri. Un atteggiamento positivo sul volto facilita l’empatia dell’interlocutore. Aiutare gli attori principianti a capire quale sia la migliore espressione per mostrare i vari stati d’animo dei personaggi, per esempio.
  • Migliorare il processo decisionale. L'intelligenza artificiale emotiva può aiutare le persone e le organizzazioni a prendere decisioni più informate tenendo conto dello stato emotivo delle persone coinvolte.
  • In strumenti di videoconferenza per migliorare la comunicazione e l'interazione tra i partecipanti. Ad esempio, l'intelligenza artificiale delle emozioni può essere utilizzata per analizzare le espressioni facciali e il linguaggio del corpo dei partecipanti per identificare i loro stati emotivi e fornire feedback o suggerimenti in tempo reale per facilitare una migliore comunicazione. Emotion AI può anche essere utilizzato per creare raccomandazioni o risposte personalizzate basate sulle emozioni dei partecipanti.

 

LINEE GUIDA MorphCast sull'uso responsabile di Emotion AI

  1. Ottenere il consenso esplicito e informato delle persone prima di raccogliere o elaborare i loro dati emotivi. 

Ottenere il consenso esplicito e informato delle persone prima di raccogliere o elaborare i loro dati emotivi è una parte importante dell'uso responsabile di Emotion AI. Ciò significa che è necessario comunicare chiaramente lo scopo di Emotion AI, come verranno utilizzati i dati e i potenziali rischi e benefici per l'individuo. È anche importante dare all'individuo l'opportunità di accettare o rifiutare di partecipare alla raccolta o al trattamento dei propri dati emotivi. 

Ottenere il consenso esplicito e informato è importante perché garantisce che le persone siano consapevoli di come vengono utilizzati i loro dati emotivi e che abbiano la capacità di prendere una decisione informata sull'opportunità o meno di partecipare. Aiuta anche a proteggere la privacy delle persone e garantisce che i loro dati emotivi vengano utilizzati solo per lo scopo per il quale sono stati raccolti.

Al fine di ottenere un consenso esplicito e informato, è importante fornire informazioni chiare e concise alle persone in merito a Emotion AI e al suo scopo, nonché a eventuali rischi o benefici potenziali. È anche importante dare alle persone l'opportunità di porre domande e ottenere maggiori informazioni prima di prendere una decisione.

  1. Garantire che i sistemi di IA emotiva siano progettati e utilizzati in modo da rispettare la privacy e la dignità delle persone. 

È importante progettare e utilizzare i sistemi di intelligenza artificiale emotiva in modo da rispettare la privacy e la dignità delle persone. Ecco alcune altre raccomandazioni per farlo:

  1. Proteggi la privacy delle persone archiviando e gestendo in modo sicuro i dati personali in conformità con le leggi e i regolamenti pertinenti.
  2. Evita di utilizzare i sistemi di intelligenza artificiale emotiva per prendere decisioni che potrebbero avere un impatto significativo sulle persone, come decisioni di assunzione o promozione, senza fornire un processo trasparente ed equo per le persone per contestare o appellarsi a tali decisioni.
  3. Garantire che i sistemi di intelligenza artificiale emotiva siano progettati e utilizzati in modo da non discriminare o svantaggiare ingiustamente un particolare gruppo di individui.
  4. Considera i potenziali rischi e le conseguenze indesiderate dell'utilizzo di sistemi di intelligenza artificiale emotiva e implementa adeguate misure di salvaguardia per mitigare tali rischi.
  5. Rivedere e aggiornare regolarmente la progettazione e l'uso dei sistemi di intelligenza artificiale emotiva per garantire che continuino a rispettare la privacy e la dignità delle persone.
  1. Sii trasparente riguardo alle capacità e ai limiti dei sistemi di intelligenza artificiale emotiva e comunicali chiaramente agli utenti.

È importante essere trasparenti riguardo alle capacità e ai limiti dei sistemi di intelligenza artificiale emotiva e comunicarli chiaramente agli utenti. Questo può aiutare gli utenti a comprendere i potenziali vantaggi e limiti dell'utilizzo di questi sistemi e prendere decisioni informate su se e come utilizzarli. 

Ecco alcune raccomandazioni per essere trasparenti riguardo alle capacità e ai limiti dei sistemi di IA emotiva:

  1. Spiegare chiaramente agli utenti lo scopo e l'uso previsto del sistema di IA emotiva.
  2. Fornire informazioni sulle fonti di dati e sui metodi utilizzati per addestrare e valutare il sistema di intelligenza artificiale delle emozioni, comprese eventuali ipotesi o pregiudizi che possono essere presenti nei dati o negli algoritmi.
  3. Rivelare eventuali limitazioni o debolezze note del sistema di intelligenza artificiale delle emozioni, come la sua accuratezza o capacità di gestire determinati tipi di input o contesti.
  4. Comunicare agli utenti i potenziali rischi e benefici dell'utilizzo del sistema di intelligenza artificiale emotiva e fornire indicazioni su come utilizzare il sistema in modo sicuro ed efficace.
  5. Rivedere e aggiornare regolarmente le informazioni fornite sulle capacità e sui limiti del sistema di AI emozionale per garantire che siano accurate e aggiornate.
  1. Considera i potenziali impatti dell'IA emozionale su gruppi vulnerabili o emarginati e adotta misure per mitigare eventuali conseguenze negative.

È importante considerare i potenziali impatti dell'IA emotiva sui gruppi vulnerabili o emarginati e adottare misure per mitigare eventuali conseguenze negative. I sistemi di Emotion AI hanno il potenziale per perpetuare o amplificare pregiudizi e disuguaglianze esistenti ed è importante garantire che questi sistemi siano progettati e utilizzati in modo equo e inclusivo.

Ecco alcune raccomandazioni per mitigare i potenziali impatti negativi dell'AI emozionale su gruppi vulnerabili o emarginati:

  1. Condurre una valutazione dell'impatto sull'equità per identificare eventuali potenziali impatti negativi su gruppi vulnerabili o emarginati e adottare misure per mitigare tali impatti.
  2. Garantire che i dati utilizzati per addestrare e valutare i sistemi di intelligenza artificiale delle emozioni siano diversi e rappresentativi della popolazione con cui verrà utilizzato il sistema.
  3. Rivedere e aggiornare regolarmente la progettazione e l'uso dei sistemi di intelligenza artificiale emotiva per garantire che siano equi e inclusivi.
  4. Fornire linee guida e formazione chiare agli utenti dei sistemi di intelligenza artificiale emotiva su come utilizzare i sistemi in modo equo e rispettoso di tutti gli individui.
  5. Prendi in considerazione l'implementazione di meccanismi che consentano alle persone di contestare o appellarsi alle decisioni prese dai sistemi di intelligenza artificiale emotiva che potrebbero avere un impatto negativo su di loro.
  1. Valutare e rivedere regolarmente le prestazioni e i risultati dei sistemi di intelligenza artificiale emotiva per assicurarsi che funzionino come previsto e non causino danni.

È importante valutare e rivedere regolarmente le prestazioni e i risultati dei sistemi di intelligenza artificiale emotiva per garantire che funzionino come previsto e non causino danni. Questo può aiutare a identificare potenziali problemi o problemi con il sistema e consentire l'adozione di azioni correttive.

Ecco alcune raccomandazioni per condurre valutazioni e revisioni periodiche dei sistemi di intelligenza artificiale emotiva:

  1. Stabilire metriche di prestazione chiare per il sistema di intelligenza artificiale emotiva e tenere traccia di queste metriche nel tempo per garantire che il sistema raggiunga gli obiettivi prefissati.
  2. Monitora i risultati del sistema di intelligenza artificiale delle emozioni per identificare eventuali conseguenze indesiderate o impatti negativi su individui o gruppi.
  3. Condurre audit o valutazioni regolari del sistema di intelligenza artificiale emotiva per valutarne le prestazioni e identificare eventuali problemi o preoccupazioni.
  4. Prendi in considerazione l'implementazione di meccanismi per consentire agli utenti del sistema di intelligenza artificiale delle emozioni di fornire feedback o segnalare eventuali problemi o preoccupazioni.
  5. Rivedere e aggiornare la progettazione e l'uso del sistema di intelligenza artificiale delle emozioni secondo necessità per affrontare eventuali problemi o preoccupazioni identificati.
  1. Sviluppare e implementare solide misure di salvaguardia per prevenire pregiudizi e discriminazioni nello sviluppo e nell'implementazione di sistemi di intelligenza artificiale emotiva.

È importante sviluppare e attuare solide misure di salvaguardia per prevenire pregiudizi e discriminazioni nello sviluppo e nell'implementazione di sistemi di intelligenza artificiale emotiva. Pregiudizi e discriminazioni possono verificarsi in varie fasi dello sviluppo e dell'implementazione di questi sistemi, dai dati utilizzati per addestrare e valutare i sistemi ai modi in cui i sistemi vengono utilizzati nella pratica.

Ecco alcune raccomandazioni per prevenire pregiudizi e discriminazioni nei sistemi di intelligenza artificiale emotiva:

  1. Utilizzare dati diversi e rappresentativi per addestrare e valutare i sistemi di intelligenza artificiale emotiva per garantire che non siano prevenuti nei confronti di determinati gruppi di individui.
  2. Rivedere e valutare regolarmente i dati utilizzati per addestrare e valutare i sistemi di intelligenza artificiale delle emozioni per identificare e mitigare eventuali pregiudizi o schemi discriminatori.
  3. Utilizza metriche e strumenti di equità per valutare le prestazioni dei sistemi di intelligenza artificiale emotiva e identificare eventuali pregiudizi o risultati discriminatori.
  4. Fornire formazione e orientamento agli utenti dei sistemi di intelligenza artificiale emotiva su come utilizzare i sistemi in modo equo e imparziale.
  5. Prendi in considerazione l'implementazione di meccanismi che consentano alle persone di contestare o appellarsi alle decisioni prese dai sistemi di intelligenza artificiale emotiva che potrebbero essere di parte o discriminatorie.
  6. Rivedere e aggiornare regolarmente la progettazione e l'uso dei sistemi di intelligenza artificiale emotiva per garantire che siano equi e imparziali.
  1. Garantire che le persone abbiano accesso a meccanismi di ricorso adeguati se ritengono che i loro dati emotivi siano stati utilizzati in modo improprio o che la loro privacy sia stata violata.

È importante garantire che le persone abbiano accesso a meccanismi di ricorso appropriati se ritengono che i loro dati emotivi siano stati utilizzati in modo improprio o che la loro privacy sia stata violata. Questo può aiutare le persone a sentire che i loro diritti e interessi vengono rispettati e protetti e può anche aiutare a creare fiducia nei sistemi di intelligenza artificiale emotiva.

Ecco alcune raccomandazioni per fornire meccanismi di ricorso appropriati per le persone:

  1. Spiegare chiaramente alle persone come i loro dati emotivi saranno raccolti, utilizzati e protetti e fornire informazioni sui loro diritti e opzioni per decisioni impugnative o appellative prese utilizzando i loro dati.
  2. Implementare meccanismi che consentano alle persone di segnalare eventuali dubbi o lamentele sull'uso improprio o l'abuso dei propri dati emotivi.
  3. Stabilire procedure per indagare e rispondere alle segnalazioni di abuso di dati emotivi o violazioni della privacy e fornire rimedi adeguati per le persone che sono state colpite.
  4. Prendi in considerazione l'implementazione di meccanismi di supervisione o revisione indipendenti per garantire che i dati emotivi vengano utilizzati in modo responsabile ed etico.
  5. Rivedere e aggiornare regolarmente i meccanismi di ricorso in atto per garantire che siano efficaci e rispondenti alle esigenze delle persone.
  1. Fornire formazione e risorse per aiutare gli utenti a comprendere e utilizzare in modo efficace i sistemi di IA emotiva.

È importante fornire formazione e risorse per aiutare gli utenti a comprendere e utilizzare efficacemente i sistemi di intelligenza artificiale emotiva. Questo può aiutare a garantire che gli utenti siano consapevoli delle capacità e dei limiti di questi sistemi e possano utilizzarli in modo sicuro ed efficace.

Ecco alcune raccomandazioni per fornire formazione e risorse per aiutare gli utenti a comprendere e utilizzare in modo efficace i sistemi di IA emozionale:

  1. Spiegare chiaramente agli utenti lo scopo e l'uso previsto del sistema di IA emozionale e fornire informazioni sulle sue capacità e limitazioni.
  2. Fornire formazione e guida agli utenti su come utilizzare il sistema di intelligenza artificiale emozionale in modo sicuro ed efficace, comprese eventuali migliori pratiche o procedure consigliate.
  3. Rendere disponibile la documentazione e altre risorse a cui gli utenti possono fare riferimento quando utilizzano il sistema Emotion AI, come manuali utente o domande frequenti.
  4. Prendi in considerazione l'idea di offrire supporto o assistenza continua agli utenti del sistema di intelligenza artificiale emozionale, ad esempio tramite un help desk o un forum di supporto online.
  5. Rivedere e aggiornare regolarmente la formazione e le risorse fornite agli utenti per garantire che siano accurate e aggiornate.
  1. Collabora con l'industria, il mondo accademico e altre parti interessate per promuovere l'uso etico e responsabile dell'IA emozionale.

È importante lavorare con l'industria, il mondo accademico e altre parti interessate per promuovere l'uso etico e responsabile dell'IA emozionale. Ciò può aiutare a garantire che i sistemi di IA emozionale siano sviluppati e utilizzati in modo equo, trasparente e rispettoso della privacy e della dignità delle persone.

Ecco alcune raccomandazioni per lavorare con l'industria, il mondo accademico e altre parti interessate per promuovere l'uso etico e responsabile dell'IA emozionale:

  1. Impegnarsi con l'industria e il mondo accademico per condividere conoscenze e competenze sull'uso etico e responsabile dell'IA emozionale.
  2. Partecipa ad associazioni di settore, società professionali e altre organizzazioni che si concentrano sull'uso etico e responsabile dell'intelligenza artificiale emotiva.
  3. Collaborare con altre parti interessate, come le organizzazioni della società civile e le agenzie governative, per identificare e affrontare potenziali questioni etiche e sociali relative all'intelligenza artificiale emotiva.
  4. Collaborare con l'industria, il mondo accademico e altre parti interessate per sviluppare e promuovere le migliori pratiche, linee guida e standard per l'uso etico e responsabile dell'intelligenza artificiale emotiva.
  5. Rivedere e aggiornare regolarmente gli approcci e le strategie per lavorare con l'industria, il mondo accademico e altre parti interessate per promuovere l'uso etico e responsabile dell'IA emozionale.

Queste linee guida sono solo l'inizio di un lavoro che continueremo ad evolvere nell'ottica di utilizzare l'IA emotiva in modo sempre consapevole ed a beneficio delle persone, prevenendo, limitando e controllando i rischi di un uso inappropriato, abusivo o addirittura criminale della tecnologia di IA emozionale.

 

Siamo membri della European AI Alliance e per la stesura delle presenti linee guida abbiamo preso in considerazione gli orientamenti etici per un'IA affidabile dell’Unione Europea e la Proposta di regolamento che stabilisce norme armonizzate sull'intelligenza artificiale disponibile a questo link.

 

Morphcast è in contatto con ReD OPEN, spin-off dell’Università degli Studi di Milano-Bicocca, con l’obiettivo di condividere strumenti e linee guida per governare responsabilmente l’impatto della Emotion AI.

Ultima modifica 26 gennaio 2023