In vigore dal 4 Marzo 2023
Gentile utente,
Vogliamo fornirti trasparenza e chiarezza riguardo al nostro sistema di intelligenza artificiale emotiva. Questo documento delinea con dettaglio come lavora, i metodi per l’estrazione dei dati, informazioni sulle fonti di dati, i metodi utilizzati per la valutazione del sistema, nonché eventuali limitazioni o pregiudizi noti. Forniamo anche informazioni sui potenziali rischi e benefici dell’utilizzo del sistema di intelligenza artificiale emotiva, nonché linee guida per un uso sicuro ed efficace.
La tecnologia sviluppata e distribuita da Cynny S.p.A. (di seguito “Cynny”), denominata “MorphCast® EMOTION AI HTML5 SDK” e/o gli altri prodotti, servizi e funzionalità disponibili che lo integrano (ad es. MorphCast Web Apps o MorphCast Emotion AI Interactive Video Platform) è un software di intelligenza artificiale capace di elaborare immagini provenienti da un flusso video e che permette di stabilire, con vari gradi di probabilità e accuratezza (si veda al riguardo Allegato A al presente documento), lo stato emozionale del soggetto inquadrato ed alcune altre caratteristiche apparenti come, ad esempio, il taglio o il colore dei capelli, l’apparente età e genere, le espressioni facciali emozionali, in ogni caso senza alcuna identificazione del soggetto (di seguito, il “Software”). Per una lista completa delle caratteristiche estratte dal Software, fare riferimento all’Allegato B a questo documento.
Questa tecnologia, che Cynny mette a disposizione dei propri utenti (qualificati come “Business Users”, ai sensi dei “Terms of Use” applicabili, e di seguito indicati come “Clienti”) è stata specificamente progettata e sviluppata per non identificare i soggetti inquadrati dal Software. Tali soggetti sono gli utenti finali del Software prescelti dal Cliente (di seguito, gli “Utenti Finali“), con cui invece Cynny non ha alcun tipo di rapporto.
Il Software può essere oggetto di utilizzo autonomo da parte del Cliente oppure essere attivato, per scelta del Cliente medesimo, nel contesto di utilizzo di altri servizi messi a disposizione di Cynny, i cui termini d’uso e informative privacy sono disponibili alla pagina mission. Per quanto riguarda i dati di registrazione dei Clienti, troverà applicazione anche la relativa Privacy Policy, disponibile alla pagina Informativa Privacy.
Come funziona il software
Il Software funziona come una libreria Javascript incorporata in una pagina web appartenente generalmente al dominio del Cliente, in esecuzione nel browser del dispositivo dell’Utente Finale, che, come sopra indicato, ha un rapporto esclusivamente con il Cliente (e non con Cynny). Il Software esegue l’elaborazione dei dati direttamente sul dispositivo dell’Utente Finale senza caricare dati privati su server cloud e senza inviare alcun dato a server esterni.
Il Software non effettua trattamenti di dati biometrici che consentono l’identificazione univoca di un soggetto, ma solo un trattamento istantaneo (volatile) di dati personali in sede di elaborazione delle immagini (frame), lette dal flusso video (per esempio di una fotocamera, che è utilizzata solo come sensore e non come registratore di immagini e/o video) fornito dal browser dell’Utente Finale. Cynny non svolge alcun trattamento né ha alcun controllo su tali dati personali essendo gli stessi trattati tramite il Software automaticamente e direttamente sul device dell’Utente Finale.
Di conseguenza, l’uso del Software è soggetto ai seguenti termini di utilizzo, entrambi al di fuori del controllo di Cynny: (1) i termini di utilizzo del browser dell’Utente Finale in cui il Software è incorporato e (2) qualsiasi software o API di terze parti richieste per consentire alla pagina web di funzionare.
Fermo restando quanto sopra, in qualità di fornitore del Software, Cynny (a) garantisce di aver adottato ogni opportuna misura di sicurezza nella progettazione del Software anche in merito al trattamento di dati personali, tenendo conto dell’approccio privacy-by-design e garantendo un’adeguata sicurezza del software stesso e;
(b) si rende disponibile a collaborare con il Cliente (che nel caso utilizzi autonomamente i dati estratti assume la qualifica di Titolare del Trattamento ai sensi del Regolamento UE 2016/679, di seguito “GDPR”) rispetto ad ogni eventuale trattamento di dati personali relativi all’Utente Finale, mostrando e spiegando tutte le funzionalità del Software, al fine di metterlo in condizione di effettuare una precisa analisi dei rischi rispetto ai diritti ed alle libertà fondamentali delle persone interessate (ivi incluse eventuali valutazioni di impatto, ove necessarie e/o opportune, secondo l’opinione del Titolare del Trattamento). Infatti, sarà esclusivamente onere e responsabilità del Titolare del Trattamento stabilire, le finalità, le modalità e la base giuridica del trattamento, il tempo e luogo (fisico o virtuale) di conservazione dei dati personali relativi agli Utenti Finali, altresì fornendo ai medesimi apposita informativa in linea con la normativa applicabile a tutela dei dati personali (incluso il GDPR).
In base a quanto previsto dai Terms of Use del Software (disponibile qui: Termini di Uso), lo stesso si rivolge solo ed esclusivamente ad utenti professionali, con l’espressa esclusione dei consumatori e, pertanto, dell’utilizzo del Software per finalità domestiche/personali. In ogni caso, qualunque sia il tipo di trattamento effettuato dal Cliente, in qualità di Titolare del Trattamento, le conseguenze derivanti dall’applicazione della normativa applicabile, ivi inclusa quella a tutela dei dati personali, sono esclusivamente a carico del Titolare del Trattamento medesimo.
Si specifica inoltre che il Software opera integrato in un contesto hardware/software privato aziendale dell’Utente Finale del Cliente (su risorse end-point, incluse pagine web appartenenti al dominio del Cliente stesso e quindi sotto il suo controllo) equipaggiato con le misure di sicurezza necessarie ad evitare la compromissione dei dati interessati dal trattamento da parte del Software. In linea con quanto sopra indicato, le conseguenti responsabilità relative al trattamento di dati personali degli Utenti Finali, da parte dei Clienti, ricadono esclusivamente sul Cliente, che si obbliga pertanto, in conformità con quanto già previsto dalla sezione “Indemnification” dei termini d’uso del Software, a manlevare integralmente Cynny da qualsivoglia conseguenza pregiudizievole che possa derivare al riguardo.
Per quanto riguarda i dati emozionali messi a disposizione del Cliente dal Software attraverso il modulo del Software chiamato “Data Storage” e la relativa dashboard ed anche nel caso che il Cliente utilizzi il servizio MorphCast Emotion AI Interactive Video Platform attivando la funzionalità “Statistic”, si specifica che tali dati statistici non sono considerabili privati poiché non sono associati a persone fisiche, sono anonimi ed aggregati con granularità giornaliera, inoltre vengono resi disponibili solo se l’aggregazione supera una soglia minima per garantire l’impossibilità di essere collegati a una persona fisica. Pertanto tali dati sono da considerarsi non soggetti alle leggi sulla privacy, ivi incluso GDPR.
Per tali ragioni Cynny, per quanto occorrer possa e nella massima misura consentita dalla legge applicabile in conformità con quanto indicato nella sezione “Exclusive Remedy and Limitation of Liability” dei termini d’uso del Software, declina ogni responsabilità per il contenuto delle immagini e/o video generati dal Cliente, anche tramite l’utilizzo del Software, nonché raccolti, conservati e trattati esclusivamente dal Titolare del Trattamento e non potrà pertanto essere in alcun caso responsabile della correttezza e/o della legittimità di tali contenuti ai sensi della normativa applicabile (ivi incluse, a titolo esemplificativo, le normative in materia di privacy, diritto d’autore, buon costume, ordine pubblico, ecc.).
Valutazione dei rischi
Cynny, pur fornendo il Software quale strumento che consente il trattamento di dati personali relativi agli Utenti Finali, non è nella posizione di sapere (i) come tale Software verrà integrato ed utilizzato dai propri Clienti e dagli Utenti Finali; né, tantomeno, (ii) quali categorie dati personali saranno oggetto di trattamento. Al riguardo, Cynny si qualifica quindi quale soggetto “terzo” ai sensi del GDPR, che non ha ricevuto dal Cliente alcuna legittimazione a trattare alcun dato personale degli Utenti Finali, essendo tale trattamento riservato in via esclusiva al Cliente. In ogni caso, come sopra indicato, Cynny, nel rispetto dei generali principi a tutela della privacy, si è preoccupata degli aspetti di sicurezza del Software, mettendo a disposizione del Cliente un Software che integra le misure di sicurezza dell’ambiente ospitante, contro la violazione o la compromissione dei dati personali (con espressa esclusione dei dati biometrici, che, come sopra indicato, non sono in alcun modo processati dal Software) rappresentati dalle immagini lette dal flusso della telecamera.
Infatti, il flusso video, ad esempio dalla telecamera del dispositivo ospitante dell’Utente Finale, è reso accessibile al Software, su richiesta dell’Utente Finale, direttamente sul browser di tale dispositivo; tale accesso è consentito esclusivamente con l’autorizzazione e il controllo dell’Utente Finale. Il Software poi legge le immagini dello stream sul browser dell’Utente Finale, solo se concesso dall’Utente Finale medesimo, solo quando l’applicazione è attiva e solo per gli scopi dichiarati secondo l’apposita informativa privacy che sarà fornita dal Cliente all’Utente Finale.
Ogni immagine del flusso video permane nella memoria volatile del dispositivo (ad es. smartphone, tablet, PC etc.), dell’Utente Finale, accessibile dal Software all’interno della sandbox del browser, per il solo tempo strettamente necessario all’elaborazione del risultato, stimato in circa 100ms, dopodiché tale immagine viene distrutta e sovrascritta dall’immagine successiva. Anche l’ultimo fotogramma del flusso viene distrutto non appena elaborato; pertanto, nessuna immagine viene conservata né nel browser del dispositivo dell’Utente Finale né, tantomeno, all’interno di strumenti sotto il controllo di Cynny.
Cynny non ha quindi alcun controllo su tali immagini, che pertanto non potranno mai essere da quest’ultima trasmesse, archiviate o condivise con altri.
Impegno costante per un uso consapevole ed etico di Emotion AI
Cynny è costantemente impegnata a fornire tutte le informazioni necessarie per una migliore comprensione e utilizzo delle tecnologie Emotion AI. Consulta le nostre linee guida e politiche per un uso responsabile di Emotion AI. Cynny si è dotata anche di un codice etico che puoi a questo link: codice etico.
Contatti
Per eventuali chiarimenti e/o problematiche legate al funzionamento del Software rispetto alla privacy, preghiamo di contattare [email protected].
Cynny ha inoltre nominato un Data Protection Officer, contattabile al seguente indirizzo email: [email protected].
Allegato A: trasparenza sul grado di probabilità e accuratezza
ll riconoscimento facciale tramite intelligenza artificiale delle emozioni è una forma di intelligenza artificiale progettata per analizzare le espressioni facciali e identificare emozioni come felicità, tristezza, rabbia e sorpresa. La tecnologia utilizzata da MorphCast è una combinazione di computer vision e algoritmi di intelligenza artificiale di tipo rete neurale profonda convoluzionale per analizzare immagini o video dei volti delle persone e identificare modelli che corrispondono a emozioni specifiche.
L’accuratezza della tecnologia di riconoscimento facciale Emotion AI può essere influenzata da una serie di fattori, tra cui:
– Qualità dell’immagine o del video: è più probabile che la tecnologia produca risultati accurati quando le immagini o i video analizzati sono di alta qualità, con immagini chiare e ben volti illuminati. Fattori come una risoluzione molto bassa, una scarsa illuminazione o l’angolazione della telecamera possono rendere più difficile per l’algoritmo identificare con precisione le emozioni.
Algoritmo: diversi algoritmi hanno diversi livelli di precisione. Gli algoritmi MorphCast utilizzano tecniche di deep learning come le reti neurali convoluzionali (CNN) e sono addestrati su grandi set di dati, questi sono considerati più accurati di quelli che utilizzano le tradizionali tecniche di machine learning.
– Dati di addestramento: l’accuratezza della tecnologia di riconoscimento facciale AI emozionale può anche essere influenzata dalla qualità e dalla diversità dei dati di addestramento a cui l’algoritmo è stato esposto. Gli algoritmi di MorphCast vengono addestrati su un set di dati diversificato di immagini e video di persone di età, sesso ed etnia differenti. È probabile che siano più accurati di quelli addestrati su un set di dati più limitato.
È anche importante notare che la tecnologia di riconoscimento delle emozioni è ancora nelle sue fasi iniziali e in MorphCast sono in corso continue ricerche per migliorarne l’accuratezza. Inoltre, c’è un certo grado di pregiudizio in queste tecnologie, in particolare per quanto riguarda la razza e il genere. Di conseguenza, è importante essere consapevoli di questi pregiudizi e adottare misure per mitigarli. Questo è l’impegno che MorphCast si è dato fin dalla sua nascita.
Proprio in merito al bias vogliamo citare una recente ricerca in merito:
Le espressioni emotive sono un linguaggio di interazione sociale. Guidata dai recenti progressi nello studio dell’espressione e dell’intersezionalità, la presente indagine ha esaminato come il genere, l’etnia e la classe sociale influenzino la segnalazione e il riconoscimento di 34 stati nel comportamento espressivo dinamico di tutto il corpo. Centocinquantacinque asiatici, latini ed europei americani hanno espresso 34 stati emotivi con i loro corpi. Abbiamo quindi raccolto 22.174 valutazioni individuali di queste espressioni. In linea con studi recenti, le persone possono riconoscere fino a 29 espressioni di emozioni multimodali di tutto il corpo. Né il genere né l’etnia hanno influenzato la segnalazione o il riconoscimento dell’emozione, contrariamente all’ipotesi. La classe sociale, tuttavia, ha avuto un’influenza: in linea con gli studi precedenti, gli individui di classe inferiore si sono dimostrati segnalatori di emozioni più affidabili e giudici più affidabili delle espressioni di emozioni di tutto il corpo. La discussione si è concentrata sull’intersezionalità e l’emozione. (PsycInfo Database Record (c) 2022 APA, tutti i diritti riservati).
Inoltre, molti studi hanno dimostrato che la tecnologia di riconoscimento delle emozioni è più accurata per determinate emozioni (ad es. felicità, rabbia) rispetto ad altre (ad es. tristezza, sorpresa) e c’è un grado di variabilità tra i diversi algoritmi, il che rende difficile dare un giudizio generale numero per l’accuratezza di queste tecnologie. Nonostante ciò, l’attuale accuratezza della previsione delle emozioni può essere considerata tra il 70% e l’80% per quasi tutti gli algoritmi sul mercato.
A tal proposito, MorphCast è stato valutato nella sua accuratezza da uno studio universitario che confronta l’accuratezza di diversi software, rilevati sulle sei emozioni fondamentali di Paul Ekman, con la percezione dell’essere umano. Questi sono i risultati dello studio di accuratezza:
Damien Dupré, Eva G. Krumhuber, Dennis Küster e Gary McKeown rispettivamente della Dublin City University, University College London, University of Bremen, Queen’s University Belfast hanno pubblicato qui Riconoscimento delle emozioni negli esseri umani e nelle macchine utilizzando espressioni facciali poste e spontanee.
“Emotional Tracking (SDK v1.0) è stato sviluppato dalla società MorphCast fondata nel 2013. Emotional Tracking SDK ha la particolarità di essere un motore javascript inferiore a 1 MB e funziona direttamente sui browser mobili (ovvero, senza server remoto e elaborazione API).”
–
–
–
Allegato B: tipologia dei dati rilevati
MorphCast SDK ha un’architettura modulare che ti permette di caricare solo quello che ti serve. Di seguito una breve descrizione dei moduli disponibili:
- FACE DETECTOR
- POSE
- AGE
- GENDER
- EMOTIONS
- AROUSAL VALENCE
- ATTENTION
- WISH
- OTHER FEATURES
FACE DETECTOR
Rileva la presenza di un volto nel campo visivo della webcam, o nell’immagine in ingresso.
Il volto tracciato viene passato agli altri moduli e quindi analizzato. In caso di più facce, è disponibile il numero totale di facce ma, in tal caso, è possibile analizzare solo la faccia principale.
POSE
Stima gli angoli di rotazione testa-posa espressi in radianti come beccheggio, rollio e imbardata.
AGE
Stima l’età probabile della faccia principale con una granularità di anni, o all’interno di una fascia di età per una migliore stabilità numerica.
GENDER
Stima il genere più probabile del volto principale, Maschio o Femmina.
EMOZIONI
Stima la presenza e le rispettive intensità delle espressioni facciali nel formato di sette emozioni fondamentali – rabbia, disgusto, paura, felicità, tristezza e sorpresa, più l’espressione neutra – secondo il modello discreto di Ekman.
Arousal Valence
Stima l’arousal emotivo e l’intensità della valenza. Secondo il modello dimensionale di Russell. L’eccitazione è il grado di coinvolgimento (eccitazione positiva) o disimpegno (eccitazione negativa); la valenza è il grado di gradevolezza (valenza positiva) o di spiacevolezza (valenza negativa).
Emette un oggetto contenente le probabilità livellate nell’intervallo 0.00, – 1.00 dei 98 affetti emotivi, calcolati dai punti nello spazio emotivo 2D (valenza, eccitazione), secondo le mappature di Schrerer e Ahn:
Adventurous |
Afraid |
Alarmed |
Ambitious |
Amorous |
Amused |
Angry |
Annoyed |
Anxious |
Apathetic |
Aroused |
Ashamed |
Astonished |
At Ease |
Attentive |
Bellicose |
Bitter |
Bored |
Calm |
Compassionate |
Conceited |
Confident |
Conscientious |
Contemplative |
Contemptuous |
Content |
Convinced |
Courageous |
Defiant |
Dejected |
Delighted |
Depressed |
Desperate |
Despondent |
Determined |
Disappointed |
Discontented |
Disgusted |
Dissatisfied |
Distressed |
Distrustful |
Doubtful |
Droopy |
Embarrassed |
Enraged |
Enthusiastic |
Envious |
Excited |
Expectant |
Feel Guilt |
Feel Well |
Feeling Superior |
Friendly |
Frustrated |
Glad |
Gloomy |
Happy |
Hateful |
Hesitant |
Hopeful |
Hostile |
Impatient |
Impressed |
Indignant |
Insulted |
Interested |
Jealous |
Joyous |
Languid |
Light Hearted |
Loathing |
Longing |
Lusting |
Melancholic |
Miserable |
Passionate |
Peaceful |
Pensive |
Pleased |
Polite |
Relaxed |
Reverent |
Sad |
Satisfied |
Selfconfident |
Serene |
Serious |
Sleepy |
Solemn |
Startled |
Suspicious |
Taken Aback |
Tense |
Tired |
Triumphant |
Uncomfortable |
Wavering |
Worried |
Viene fornito anche il quadrante dello spazio emozionale 2D (valence, arousal)
L’output semplificato di 38 affetti emotivi può essere utile in diversi casi:
Viene inoltre fornito un output con il quadrante dello spazio emozionale 2D. Questo fornisce informazioni sulle dimensioni di valutazione: propensione all’obiettivo/ostruzione e potenziale di coping (controllo/potere).
ATTENTION
Stima il livello di attenzione dell’utente allo schermo, considerando se il viso dell’utente è all’interno o all’esterno del campo visivo della webcam, la posizione della testa e altri comportamenti emotivi e di umore. La velocità di caduta e aumento dell’attenzione può essere opportunamente regolata in modo indipendente a seconda del caso d’uso.
WISH
Stima il valore dell’indice MorphCast® Face Wish. Si tratta di una metrica proprietaria che, considerando l’interesse e il sentiment di un cliente, riassume in maniera olistica la sua esperienza su un particolare contenuto o prodotto presentato.
ALTRE CARATTERISTICHE
Si stima la presenza delle seguenti caratteristiche del viso:
Arched Eyebrows |
Double Chin |
Narrow Eyes |
Attractive |
Earrings |
Necklace |
Bags Under Eyes |
Eyebrows Bushy |
Necktie |
Bald |
Eyeglasses |
No Beard |
Bangs |
Goatee |
Oval Face |
Beard 5 O’Clock Shadow |
Gray Hair |
Pale Skin |
Big Lips |
Hat |
Pointy Nose |
Big Nose |
Heavy Makeup |
Receding Hairline |
Black Hair |
High Cheekbones |
Rosy Cheeks |
Blond Hair |
Lipstick |
Sideburns |
Brown Hair |
Mouth Slightly Open |
Straight Hair |
Chubby |
Mustache |
Wavy Hair |
Bibliografia
- Russell, J., Lewicka, M. & Niit, T. (1989). A cross-cultural study of a circumplex model of affect. Journal of personality and social psychology, 57, 848–856.
- Scherer, Klaus. (2005). Scherer KR. What are emotions? And how can they be measured? Soc Sci Inf 44: 695-729. Social Science Information. 44. 695-792.
- Ahn, Junghyun & Gobron, Stéphane & Silvestre, Quentin & Thalmann, Daniel. (2010). Asymmetrical Facial Expressions based on an Advanced Interpretation of Two-dimensional Russells Emotional Model.
- Paltoglou, G., & Thelwall, M. (2012). Seeing stars of valence and arousal in blog posts. IEEE Transactions on Affective Computing, 4(1), 116-123.