Come funziona – Responsabilità, Trasparenza e Chiarezza

 

See also in English language

In vigore dal 4 Marzo 2023


 

Gentile utente,

Vogliamo fornirti trasparenza e chiarezza riguardo al nostro sistema di intelligenza artificiale emotiva. Questo documento delinea con dettaglio come lavora, i metodi per l’estrazione dei dati, informazioni sulle fonti di dati, i metodi utilizzati per la valutazione del sistema, nonché eventuali limitazioni o pregiudizi noti. Forniamo anche informazioni sui potenziali rischi e benefici dell’utilizzo del sistema di intelligenza artificiale emotiva, nonché linee guida per un uso sicuro ed efficace.

 

La tecnologia sviluppata e distribuita da Cynny S.p.A. (di seguito “Cynny”), denominata “MorphCast® EMOTION AI HTML5 SDK” e/o gli altri prodotti, servizi e funzionalità disponibili che lo integrano (ad es. MorphCast Web Apps o MorphCast Emotion AI Interactive Video Platform) è un software di intelligenza artificiale capace di elaborare immagini provenienti da un flusso video e che permette di stabilire, con vari gradi di probabilità e accuratezza (si veda al riguardo Allegato A al presente documento), lo stato emozionale del soggetto inquadrato ed alcune altre caratteristiche apparenti come, ad esempio, il taglio o il colore dei capelli, l’apparente età e genere, le espressioni facciali emozionali, in ogni caso senza alcuna identificazione del soggetto (di seguito, il “Software”). Per una lista completa delle caratteristiche estratte dal Software, fare riferimento all’Allegato B a questo documento.

Questa tecnologia, che Cynny mette a disposizione dei propri utenti (qualificati come “Business Users”, ai sensi dei “Terms of Use” applicabili, e di seguito indicati come “Clienti”) è stata specificamente progettata e sviluppata per non identificare i soggetti inquadrati dal Software. Tali soggetti sono gli utenti finali del Software prescelti dal Cliente (di seguito, gli “Utenti Finali“), con cui invece Cynny non ha alcun tipo di rapporto.

Il Software può essere oggetto di utilizzo autonomo da parte del Cliente oppure essere attivato, per scelta del Cliente medesimo, nel contesto di utilizzo di altri servizi messi a disposizione di Cynny, i cui termini d’uso e informative privacy sono disponibili alla pagina mission. Per quanto riguarda i dati di registrazione dei Clienti, troverà applicazione anche la relativa Privacy Policy, disponibile alla pagina Informativa Privacy

Come funziona il software

Il Software funziona come una libreria Javascript incorporata in una pagina web appartenente generalmente al dominio del Cliente, in esecuzione nel browser del dispositivo dell’Utente Finale, che, come sopra indicato, ha un rapporto esclusivamente con il Cliente (e non con Cynny). Il Software esegue l’elaborazione dei dati direttamente sul dispositivo dell’Utente Finale senza caricare dati privati su server cloud e senza inviare alcun dato a server esterni.

Il Software non effettua trattamenti di dati biometrici che consentono l’identificazione univoca di un soggetto, ma solo un trattamento istantaneo (volatile) di dati personali in sede di elaborazione delle immagini (frame), lette dal flusso video (per esempio di una fotocamera, che è utilizzata solo come sensore e non come registratore di immagini e/o video) fornito dal browser dell’Utente Finale. Cynny non svolge alcun trattamento né ha alcun controllo su tali dati personali essendo gli stessi trattati tramite il Software automaticamente e direttamente sul device dell’Utente Finale.

Di conseguenza, l’uso del Software è soggetto ai seguenti termini di utilizzo, entrambi al di fuori del controllo di Cynny: (1) i termini di utilizzo del browser dell’Utente Finale in cui il Software è incorporato e (2) qualsiasi software o API di terze parti richieste per consentire alla pagina web di funzionare.

Fermo restando quanto sopra, in qualità di fornitore del Software, Cynny  (a) garantisce di aver adottato ogni opportuna misura di sicurezza nella progettazione del Software anche in merito al trattamento di dati personali, tenendo conto dell’approccio privacy-by-design e garantendo un’adeguata sicurezza del software stesso e; 

(b) si rende disponibile a collaborare con il Cliente (che nel caso utilizzi autonomamente i dati estratti assume la qualifica di Titolare del Trattamento ai sensi del Regolamento UE 2016/679, di seguito “GDPR”) rispetto ad ogni eventuale trattamento di dati personali relativi all’Utente Finale, mostrando e spiegando tutte le funzionalità del Software, al fine di metterlo in condizione di effettuare una precisa analisi dei rischi rispetto ai diritti ed alle libertà fondamentali delle persone interessate (ivi incluse eventuali valutazioni di impatto, ove necessarie e/o opportune, secondo l’opinione del Titolare del Trattamento). Infatti, sarà esclusivamente onere e responsabilità del Titolare del Trattamento stabilire, le finalità, le modalità e la base giuridica del trattamento, il tempo e luogo (fisico o virtuale) di conservazione dei dati personali relativi agli Utenti Finali, altresì fornendo ai medesimi apposita informativa in linea con la normativa applicabile a tutela dei dati personali (incluso il GDPR).

In base a quanto previsto dai Terms of Use del Software (disponibile qui: Termini di Uso), lo stesso si rivolge solo ed esclusivamente ad utenti professionali, con l’espressa esclusione dei consumatori e, pertanto, dell’utilizzo del Software per finalità domestiche/personali. In ogni caso, qualunque sia il tipo di trattamento effettuato dal Cliente, in qualità di Titolare del Trattamento, le conseguenze derivanti dall’applicazione della normativa applicabile, ivi inclusa quella a tutela dei dati personali, sono esclusivamente a carico del Titolare del Trattamento medesimo.

Si specifica inoltre che il Software opera integrato in un contesto hardware/software privato aziendale dell’Utente Finale del Cliente (su risorse end-point, incluse pagine web appartenenti al dominio del Cliente stesso e quindi sotto il suo controllo) equipaggiato con le misure di sicurezza necessarie ad evitare la compromissione dei dati interessati dal trattamento da parte del Software. In linea con quanto sopra indicato, le conseguenti responsabilità relative al trattamento di dati personali degli Utenti Finali, da parte dei Clienti, ricadono esclusivamente sul Cliente, che si obbliga pertanto, in conformità con quanto già previsto dalla sezione “Indemnification” dei termini d’uso del Software, a manlevare integralmente Cynny da qualsivoglia conseguenza pregiudizievole che possa derivare al riguardo.

Per quanto riguarda i dati emozionali messi a disposizione del Cliente dal Software attraverso il modulo del Software chiamato “Data Storage” e la relativa dashboard ed anche nel caso che il Cliente utilizzi il servizio MorphCast Emotion AI Interactive Video Platform attivando la funzionalità “Statistic”, si specifica che tali dati statistici non sono considerabili privati poiché non sono associati a persone fisiche, sono anonimi ed aggregati con granularità giornaliera, inoltre vengono resi disponibili solo se l’aggregazione supera una soglia minima per garantire l’impossibilità di essere collegati a una persona fisica. Pertanto tali dati sono da considerarsi non soggetti alle leggi sulla privacy, ivi incluso GDPR.

Per tali ragioni Cynny, per quanto occorrer possa e nella massima misura consentita dalla legge applicabile in conformità con quanto indicato nella sezione “Exclusive Remedy and Limitation of Liability” dei termini d’uso del Software, declina ogni responsabilità per il contenuto delle immagini e/o video generati dal Cliente, anche tramite l’utilizzo del Software, nonché raccolti, conservati e trattati esclusivamente dal Titolare del Trattamento e non potrà pertanto essere in alcun caso responsabile della correttezza e/o della legittimità di tali contenuti ai sensi della normativa applicabile (ivi incluse, a titolo esemplificativo, le normative in materia di privacy, diritto d’autore, buon costume, ordine pubblico, ecc.).

Valutazione dei rischi

Cynny, pur fornendo il Software quale strumento che consente il trattamento di dati personali relativi agli Utenti Finali, non è nella posizione di sapere (i) come tale Software verrà integrato ed utilizzato dai propri Clienti e dagli Utenti Finali; né, tantomeno, (ii) quali categorie dati personali saranno oggetto di trattamento. Al riguardo, Cynny si qualifica quindi quale soggetto “terzo” ai sensi del GDPR, che non ha ricevuto dal Cliente alcuna legittimazione a trattare alcun dato personale degli Utenti Finali, essendo tale trattamento riservato in via esclusiva al Cliente. In ogni caso, come sopra indicato, Cynny, nel rispetto dei generali principi a tutela della privacy, si è preoccupata degli aspetti di sicurezza del Software, mettendo a disposizione del Cliente un Software che integra le misure di sicurezza dell’ambiente ospitante, contro la violazione o la compromissione dei dati personali (con espressa esclusione dei dati biometrici, che, come sopra indicato, non sono in alcun modo processati dal Software) rappresentati dalle immagini lette dal flusso della telecamera.

Infatti, il flusso video, ad esempio dalla telecamera del dispositivo ospitante dell’Utente Finale, è reso accessibile al Software, su richiesta dell’Utente Finale, direttamente sul browser di tale dispositivo; tale accesso è consentito esclusivamente con l’autorizzazione e il controllo dell’Utente Finale. Il Software poi legge le immagini dello stream sul browser dell’Utente Finale, solo se concesso dall’Utente Finale medesimo, solo quando l’applicazione è attiva e solo per gli scopi dichiarati secondo l’apposita informativa privacy che sarà fornita dal Cliente all’Utente Finale.

Ogni immagine del flusso video permane nella memoria volatile del dispositivo (ad es. smartphone, tablet, PC etc.), dell’Utente Finale, accessibile dal Software all’interno della sandbox del browser, per il solo tempo strettamente necessario all’elaborazione del risultato, stimato in circa 100ms, dopodiché tale immagine viene distrutta e sovrascritta dall’immagine successiva. Anche l’ultimo fotogramma del flusso viene distrutto non appena elaborato; pertanto, nessuna immagine viene conservata né nel browser del dispositivo dell’Utente Finale né, tantomeno, all’interno di strumenti sotto il controllo di Cynny.

Cynny non ha quindi alcun controllo su tali immagini, che pertanto non potranno mai essere da quest’ultima trasmesse, archiviate o condivise con altri.

Impegno costante per un uso consapevole ed etico di Emotion AI

Cynny è costantemente impegnata a fornire tutte le informazioni necessarie per una migliore comprensione e utilizzo delle tecnologie Emotion AI. Consulta le nostre linee guida e politiche per un uso responsabile di Emotion AI. Cynny si è dotata anche di un codice etico che puoi a questo link: codice etico.

Contatti

Per eventuali chiarimenti e/o problematiche legate al funzionamento del Software rispetto alla privacy, preghiamo di contattare [email protected].

Cynny ha inoltre nominato un Data Protection Officer, contattabile al seguente indirizzo email: [email protected].

 

Allegato A: trasparenza sul grado di probabilità e accuratezza 

ll riconoscimento facciale tramite intelligenza artificiale delle emozioni è una forma di intelligenza artificiale progettata per analizzare le espressioni facciali e identificare emozioni come felicità, tristezza, rabbia e sorpresa. La tecnologia utilizzata da MorphCast è una combinazione di computer vision e algoritmi di intelligenza artificiale di tipo rete neurale profonda convoluzionale per analizzare immagini o video dei volti delle persone e identificare modelli che corrispondono a emozioni specifiche.

L’accuratezza della tecnologia di riconoscimento facciale Emotion AI può essere influenzata da una serie di fattori, tra cui:

– Qualità dell’immagine o del video: è più probabile che la tecnologia produca risultati accurati quando le immagini o i video analizzati sono di alta qualità, con immagini chiare e ben volti illuminati. Fattori come una risoluzione molto bassa, una scarsa illuminazione o l’angolazione della telecamera possono rendere più difficile per l’algoritmo identificare con precisione le emozioni.

Algoritmo: diversi algoritmi hanno diversi livelli di precisione. Gli algoritmi MorphCast utilizzano tecniche di deep learning come le reti neurali convoluzionali (CNN) e sono addestrati su grandi set di dati, questi sono considerati più accurati di quelli che utilizzano le tradizionali tecniche di machine learning.

– Dati di addestramento: l’accuratezza della tecnologia di riconoscimento facciale AI emozionale può anche essere influenzata dalla qualità e dalla diversità dei dati di addestramento a cui l’algoritmo è stato esposto. Gli algoritmi di MorphCast vengono addestrati su un set di dati diversificato di immagini e video di persone di età, sesso ed etnia differenti. È probabile che siano più accurati di quelli addestrati su un set di dati più limitato.

È anche importante notare che la tecnologia di riconoscimento delle emozioni è ancora nelle sue fasi iniziali e in MorphCast sono in corso continue ricerche per migliorarne l’accuratezza. Inoltre, c’è un certo grado di pregiudizio in queste tecnologie, in particolare per quanto riguarda la razza e il genere. Di conseguenza, è importante essere consapevoli di questi pregiudizi e adottare misure per mitigarli. Questo è l’impegno che MorphCast si è dato fin dalla sua nascita.

Proprio in merito al bias vogliamo citare una recente ricerca in merito:

Intersectionality in emotion signaling and recognition: The influence of gender, ethnicity, and social class.

Le espressioni emotive sono un linguaggio di interazione sociale. Guidata dai recenti progressi nello studio dell’espressione e dell’intersezionalità, la presente indagine ha esaminato come il genere, l’etnia e la classe sociale influenzino la segnalazione e il riconoscimento di 34 stati nel comportamento espressivo dinamico di tutto il corpo. Centocinquantacinque asiatici, latini ed europei americani hanno espresso 34 stati emotivi con i loro corpi. Abbiamo quindi raccolto 22.174 valutazioni individuali di queste espressioni. In linea con studi recenti, le persone possono riconoscere fino a 29 espressioni di emozioni multimodali di tutto il corpo. Né il genere né l’etnia hanno influenzato la segnalazione o il riconoscimento dell’emozione, contrariamente all’ipotesi. La classe sociale, tuttavia, ha avuto un’influenza: in linea con gli studi precedenti, gli individui di classe inferiore si sono dimostrati segnalatori di emozioni più affidabili e giudici più affidabili delle espressioni di emozioni di tutto il corpo. La discussione si è concentrata sull’intersezionalità e l’emozione. (PsycInfo Database Record (c) 2022 APA, tutti i diritti riservati).

Inoltre, molti studi hanno dimostrato che la tecnologia di riconoscimento delle emozioni è più accurata per determinate emozioni (ad es. felicità, rabbia) rispetto ad altre (ad es. tristezza, sorpresa) e c’è un grado di variabilità tra i diversi algoritmi, il che rende difficile dare un giudizio generale numero per l’accuratezza di queste tecnologie. Nonostante ciò, l’attuale accuratezza della previsione delle emozioni può essere considerata tra il 70% e l’80% per quasi tutti gli algoritmi sul mercato.

A tal proposito, MorphCast è stato valutato nella sua accuratezza da uno studio universitario che confronta l’accuratezza di diversi software, rilevati sulle sei emozioni fondamentali di Paul Ekman, con la percezione dell’essere umano. Questi sono i risultati dello studio di accuratezza:

Damien Dupré, Eva G. Krumhuber, Dennis Küster e Gary McKeown rispettivamente della Dublin City University, University College London, University of Bremen, Queen’s University Belfast hanno pubblicato qui Riconoscimento delle emozioni negli esseri umani e nelle macchine utilizzando espressioni facciali poste e spontanee.

“Emotional Tracking (SDK v1.0) è stato sviluppato dalla società MorphCast fondata nel 2013. Emotional Tracking SDK ha la particolarità di essere un motore javascript inferiore a 1 MB e funziona direttamente sui browser mobili (ovvero, senza server remoto e elaborazione API).”

 

 



 

 

Allegato B: tipologia dei dati rilevati

MorphCast SDK ha un’architettura modulare che ti permette di caricare solo quello che ti serve. Di seguito una breve descrizione dei moduli disponibili:

  • FACE DETECTOR
  • POSE
  • AGE 
  • GENDER
  • EMOTIONS
  • AROUSAL VALENCE
  • ATTENTION
  • WISH
  • OTHER FEATURES

FACE DETECTOR

Rileva la presenza di un volto nel campo visivo della webcam, o nell’immagine in ingresso.

Il volto tracciato viene passato agli altri moduli e quindi analizzato. In caso di più facce, è disponibile il numero totale di facce ma, in tal caso, è possibile analizzare solo la faccia principale.

POSE

Stima gli angoli di rotazione testa-posa espressi in radianti come beccheggio, rollio e imbardata.

AGE

Stima l’età probabile della faccia principale con una granularità di anni, o all’interno di una fascia di età per una migliore stabilità numerica. 

GENDER

Stima il genere più probabile del volto principale, Maschio o Femmina. 

EMOZIONI

Stima la presenza e le rispettive intensità delle espressioni facciali nel formato di sette emozioni fondamentali – rabbia, disgusto, paura, felicità, tristezza e sorpresa, più l’espressione neutra – secondo il modello discreto di Ekman

Arousal Valence

Stima l’arousal emotivo e l’intensità della valenza. Secondo il modello dimensionale di Russell. L’eccitazione è il grado di coinvolgimento (eccitazione positiva) o disimpegno (eccitazione negativa); la valenza è il grado di gradevolezza (valenza positiva) o di spiacevolezza (valenza negativa).

Emette un oggetto contenente le probabilità livellate nell’intervallo 0.00, – 1.00 dei 98 affetti emotivi, calcolati dai punti nello spazio emotivo 2D (valenza, eccitazione), secondo le mappature di Schrerer e Ahn:

 

Adventurous

Afraid

Alarmed

Ambitious

Amorous

Amused

Angry

Annoyed

Anxious

Apathetic

Aroused

Ashamed

Astonished

At Ease

Attentive

Bellicose

Bitter

Bored

Calm

Compassionate

Conceited

Confident

Conscientious

Contemplative

Contemptuous

Content

Convinced

Courageous

Defiant

Dejected

Delighted

Depressed

Desperate

Despondent

Determined

Disappointed

Discontented

Disgusted

Dissatisfied

Distressed

Distrustful

Doubtful

Droopy

Embarrassed

Enraged

Enthusiastic

Envious

Excited

Expectant

Feel Guilt

Feel Well

Feeling Superior

Friendly

Frustrated

Glad

Gloomy

Happy

Hateful

Hesitant

Hopeful

Hostile

Impatient

Impressed

Indignant

Insulted

Interested

Jealous

Joyous

Languid

Light Hearted

Loathing

Longing

Lusting

Melancholic

Miserable

Passionate

Peaceful

Pensive

Pleased

Polite

Relaxed

Reverent

Sad

Satisfied

Selfconfident

Serene

Serious

Sleepy

Solemn

Startled

Suspicious

Taken Aback

Tense

Tired

Triumphant

Uncomfortable

Wavering

Worried

       

 

Viene fornito anche il quadrante dello spazio emozionale 2D (valence, arousal)

L’output semplificato di 38 affetti emotivi può essere utile in diversi casi:

 

Viene inoltre fornito un output con il quadrante dello spazio emozionale 2D. Questo fornisce informazioni sulle dimensioni di valutazione: propensione all’obiettivo/ostruzione e potenziale di coping (controllo/potere).

 

ATTENTION

Stima il livello di attenzione dell’utente allo schermo, considerando se il viso dell’utente è all’interno o all’esterno del campo visivo della webcam, la posizione della testa e altri comportamenti emotivi e di umore. La velocità di caduta e aumento dell’attenzione può essere opportunamente regolata in modo indipendente a seconda del caso d’uso.

WISH

Stima il valore dell’indice MorphCast® Face Wish. Si tratta di una metrica proprietaria che, considerando l’interesse e il sentiment di un cliente, riassume in maniera olistica la sua esperienza su un particolare contenuto o prodotto presentato. 

ALTRE CARATTERISTICHE

Si stima la presenza delle seguenti caratteristiche del viso:

 

Arched Eyebrows

Double Chin

Narrow Eyes

Attractive

Earrings

Necklace

Bags Under Eyes

Eyebrows Bushy

Necktie

Bald

Eyeglasses

No Beard

Bangs

Goatee

Oval Face

Beard 5 O’Clock Shadow

Gray Hair

Pale Skin

Big Lips

Hat

Pointy Nose

Big Nose

Heavy Makeup

Receding Hairline

Black Hair

High Cheekbones

Rosy Cheeks

Blond Hair

Lipstick

Sideburns

Brown Hair

Mouth Slightly Open

Straight Hair

Chubby

Mustache

Wavy Hair

 

Bibliografia