Quali sono le principali tutele per gli utenti sancite dall’AI Act? Quali garanzie offre e quali sono i fattori di rischio che vengono ridotti grazie alla sua introduzione? Lexroom AI Act, il nuovo modulo su abbonamento della piattaforma basata sull’intelligenza artificiale generativa Lexroom.ai, consente di interrogare e approfondire il Regolamento Europeo sull’intelligenza artificiale.
L’obiettivo di Lexroom AI Act, ideato e progettato con la collaborazione di professionisti del settore da Lexroom.ai – startup fondata nel 2023 nel contesto del venture builder di Vento – è permettere agli utenti, avvocati in primis, di navigare con facilità la normativa, risparmiando tempo e garantendo risposte accurate.
Basta porre quesiti giuridici e la piattaforma genera un semilavorato di parere o una risposta pragmatica, citando e allegando le fonti giuridiche utilizzate. Le informazioni restituite dalla piattaforma sono infatti prese da dataset di fonti istituzionali per assicurare contenuti pertinenti e accurati.
«Lo scopo del nuovo tool dedicato al Regolamento Europeo sull’intelligenza artificiale è supportare il lavoro degli avvocati in primis, ma anche di tutti coloro che lavorano nel settore dell’intelligenza artificiale, facendo economia proprio sulla loro risorsa immateriale più preziosa, permettendo così ai professionisti di dedicarsi ad attività a valore aggiunto per il loro mestiere», ha commentato Martina Domenicali, co-founder e CSO di Lexroom.ai.
Sarà la stessa Domenicali a intervistare presto founder dagli studios di StartupItalia: chi fa impresa o chi sta pensando di fondare la sua prima startup si trova davanti a sfide che lo accomunano a quanti vivono la medesima esperienza. Per questo abbiamo pensato di raccontare, insieme ai protagonisti, la storia di alcune imprese che fanno parte del nostro ecosistema, per imparare dai loro successi e dai loro errori (stay tuned).
AI Act, cosa sapere sui diritti degli utenti
- Divieti di pratiche dannose: il regolamento vieta pratiche di AI che possono essere dannose per le persone, come l’uso di tecniche subliminali o manipolative, lo sfruttamento di vulnerabilità legate all’età o alla disabilità, e la creazione di banche dati di riconoscimento facciale tramite scraping non mirato di immagini.
- Trasparenza e etichettatura: i fornitori devono garantire che i sistemi di AI destinati a interagire con persone fisiche informino chiaramente gli utenti che stanno interagendo con un sistema di AI. Inoltre, i contenuti generati o manipolati artificialmente devono essere chiaramente etichettati.
- Requisiti per sistemi di AI ad alto rischio: i sistemi di AI ad alto rischio devono soddisfare requisiti specifici per garantire la tutela della salute, della sicurezza, dei diritti fondamentali e la conformità a norme armonizzate.
- Sanzioni per violazioni: il regolamento prevede sanzioni pecuniarie significative per i fornitori che violano le disposizioni, con multe che possono arrivare fino al 7% del fatturato mondiale annuo totale o 35 milioni di euro, se superiore.
- Spazi di sperimentazione normativa: sono previsti spazi di sperimentazione normativa dove i fornitori di sistemi di AI possono sviluppare, addestrare, testare e validare le tecnologie prima della loro immissione sul mercato, garantendo che i sistemi di IA rispettino le normative vigenti.