La perdita di informazioni riservate e i potenziali risvolti giuslavoristici possono avere un impatto economico e reputazionale ben superiore ai benefici derivanti dall’ottimizzazione del tempo offerta dagli strumenti di IA.
Inoltre, l’utilizzo di agenti di intelligenza artificiale senza adeguata informativa e consenso costituisce un trattamento illecito di dati personali che possono avere conseguenze legali.
L’AI trova applicazione in numerosi ambiti ma tra i settori maggiormente interessati da questa evoluzione rientra quello delle videoconferenze: le principali piattaforme — in particolare Microsoft Teams e Google Meet — integrano oggi agenti di intelligenza artificiale capaci di ottimizzare la gestione delle call attraverso funzionalità quali trascrizioni automatiche, sintesi dei meeting, traduzioni simultanee, acquisizione delle immagini dei partecipanti, analisi e generazione di contenuti e, in taluni casi, persino la partecipazione “autonoma” dell’agente alla videocall. Tale partecipazione può avvenire automaticamente, senza che l’agente venga esplicitamente invitato e, in molti casi, senza che l’organizzatore o i partecipanti ne siano pienamente consapevoli.
Questa configurazione predefinita, che richiede un intervento manuale da parte dell’organizzatore per essere disabilitata, può generare criticità in capo all’organizzatore della call, il quale – essendo colui che invita i partecipanti e gestisce la riunione – assume il ruolo di responsabile della conduzione della riunione e, sul piano giuridico, quello di Titolare del Trattamento ai sensi del GDPR.
Inoltre, è soggetto agli obblighi informativi previsti dal D.Lgs. 104/2022 (c.d. decreto Trasparenza) e alle più recenti disposizioni del Regolamento europeo sull’utilizzo dell’IA, che impongono trasparenza, correttezza e adeguata protezione dei dati e delle informazioni trattate durante la call.
L’eventuale attivazione inconsapevole di un agente di IA potrebbe quindi comportare trattamenti non dichiarati ai partecipanti, conpotenziali profili di non conformità.
Dal 10 ottobre 2025, con l’entrata in vigore della Legge n. 132/2025 sull’IA l’utilizzo dell’intelligenza artificiale richiede un’adeguata informativa e, nei casi previsti, il consenso dell’interessato quindi datori di lavoro, enti pubblici, professionisti e organizzazioni devono informare dipendenti, collaboratori, utenti e clienti in merito all’impiego di sistemi di IA nei processi aziendali.
Questo obbligo è ancora più evidente nel contesto delle videoconferenze e delle riunioni virtuali, nelle quali vengono trattati molteplici dati personali dei partecipanti, tra cui immagine e voce, dati identificativi, metadati di utilizzo e contenuti condivisi come file, presentazioni, documenti che possono contenere informazioni riservate e strategiche.
Queste informazioni, prese singolarmente o in combinazione, possono rivelare elementi sensibili riguardanti l’organizzazione, i processi interni e le funzioni aziendali. Per tale ragione, è necessario che l’organizzazione, nella sua veste di Titolare del Trattamento, predisponga sin dall’inizio e prima dell’avvio della videoconferenza tutta la documentazione di compliance necessaria e, laddove richiesto, ottenga il consenso informato da tutti i partecipanti.
Va sottolineato che, allo stato attuale, non esistono strumenti tecnologici in grado di registrare o trattare esclusivamente i dati dei partecipanti che hanno espresso il consenso, escludendo automaticamente quelli dei soggetti che lo negano.
Ne consegue che il rifiuto di consenso anche da parte di un solo partecipante impedirebbe automaticamente il trattamento dei dati di tutti gli altri partecipanti, bloccando di fatto l’attività sin dall’inizio.
In aggiunta a questo va considerato che gli agenti di intelligenza artificiale possono anche interpretare il linguaggio non verbale dei partecipanti, attraverso l’analisi dell’espressività facciale e dell’intonazione vocale, al fine di valutare il livello di coinvolgimento nella conversazione e generare una sintesi interpretativa delle posizioni emerse. L’elaborazione di questi parametri biometrici comportamentali richiede tra l’altro, ai sensi del GDPR, rigorose verifiche tecniche sulla precisione e attendibilità dell’algoritmo, una DPIA e una policy interna che disciplini in modo chiaro le modalità di utilizzo di questi strumenti.
Inoltre, qualora i report generati dagli agenti AI fossero utilizzati per valutare le performance dei dipendenti, potrebbero emergere rilevanti profili giuslavoristici, richiedendo attenzione sia sotto il profilo della trasparenza e correttezza nel trattamento dei dati, sia rispetto ai diritti dei lavoratori.
Sussistono, inoltre, importanti tematiche di proprietà intellettuale e industriale che devono essere gestite con attenzione nell’ambito delle videoconferenze.
In particolare, occorre considerare la condivisione di informazioni riservate: durante una call possono essere trasmessi dati, documenti o informazioni strategiche che hanno valore commerciale o costituiscono segreti aziendali.
È importante sapere come queste verranno trattate, e soprattutto, come nel caso di call di negoziazione contrattuale, come potrebbero essere utilizzate.
