• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Sicurezza
  • Contattaci
Close Menu
Top Trade
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • ESET PROTECT Platform si integra con ConnectWise Asio
    • BTicino: soluzioni smart per un ufficio più efficiente
    • Ericsson apre la strada alle comunicazioni ferroviarie di nuova generazione
    • Sony e NoviSign rendono il digital signage più intelligente
    • RS Italia, Schneider e Adare per un procurement sostenibile e una supply chain responsabile
    • F5: l’intelligenza artificiale deve essere sicura
    • Dior innova la logistica della supply chain con Scandit e Hardis WMS
    • Salesforce premiata agli AWS Partner Awards 2025 per l’Italia
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Top Trade
    • Tecnologie
    • Strategie
    • Infrastrutture
    • Sicurezza
    • Tendenze
    Top Trade
    Sei qui:Home»Featured»AI Responsible: definizione e best practice

    AI Responsible: definizione e best practice

    By Redazione Top Trade20/03/20256 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Lee McLean di Zebra Technologies parla dei principi guida dell’AI Responsible, un insieme di pratiche che non si limitano solo alla conformità normativa

    AI-responsible

    L’Intelligenza Artificiale sta evolvendo rapidamente, sollevando questioni etiche e normative sempre più urgenti. Dalla trasparenza all’equità, fino alla protezione dei dati e alla supervisione umana. Nell’articolo che vi proponiamo oggi, Lee McLean, Legal Counsel and AI Specialist di Zebra Technologies, rivela le best practice per l’implementazione della cosiddetta AI Responsible.

    Buona lettura!

    Come possiamo definire ‘AI Responsible’ e tradurlo in azione?

    L’etica – e l’urgenza esistenziale – che guida le politiche di Intelligenza Artificiale responsabile (AI Responsible) si basa su principi come privacy, sicurezza, equità e trasparenza. Tuttavia, sono in molti a confondere concetti legati all’AI, come il machine learning, gli algoritmi adattivi, il deep learning, l’elaborazione del linguaggio naturale e le tecnologie di AI generativa (GenAI), che stanno alimentando l’attuale crescita dell’intelligenza artificiale. Le persone temono che i propri dati vengano usati in modo non appropriato, che le loro parole vengano fraintese e che il loro lavoro venga rappresentato in modo distorto. Queste preoccupazioni stanno creando un clima di paura, incertezza e dubbio.

    Come possiamo mantenere il controllo sull’AI affinché non inganni, diffonda disinformazione o causi danni alle persone? Come possiamo garantire che i modelli di AI integrati nei prodotti non violino contenuti protetti da copyright, siano privi di bias o non interferiscano negativamente con i mezzi di sussistenza delle persone? Come possiamo assicurare all’AI un giusto livello di autosufficienza e autonomia, tutelando al contempo sia i consumatori che le aziende?

    Queste sono domande complesse a cui non è facile rispondere, soprattutto perché il valore dell’AI continua a crescere e i possibili casi d’uso si moltiplicano. La buona notizia è che molti ingegneri dell’AI, accademici, esperti legali, policymaker e leader aziendali stanno lavorando attivamente su questi temi, mentre nuove normative cercano di bilanciare l’AI Responsible con l’innovazione. Prima di capire come le aziende possano mettere in pratica l’AI Responsible, è fondamentale rispondere a un’altra domanda: che significa, esattamente, AI Responsible?

    Possiamo definire l’AI Responsible?

    Esistono molte definizioni diverse che generalmente convergono, ma l’International Organisation for Standardisation (ISO) fornisce una base solida per definirla. Secondo l’ISO, “L’AI Responsible è un approccio allo sviluppo e all’implementazione dell’intelligenza artificiale che considera sia gli aspetti etici che quelli legali”.

    L’obiettivo è garantire un uso sicuro, affidabile ed etico dell’AI. Adottare un approccio responsabile all’AI dovrebbe migliorare la trasparenza e contribuire a ridurre problemi come i bias dell’AI.

    Sebbene l’intento dell’AI Responsible sia piuttosto chiaro, la vera sfida emerge quando si cerca di tradurre questa teoria in pratica: è proprio qui che gli stakeholder faticano a trovare un consenso. Come ha affermato Tess Valbuena, CEO ad interim di Humans in the Loop, “La necessità di una supervisione sull’AI – e il grado di controllo da applicare – non è così oggettiva come molti vorrebbero che fosse”.

    Attualmente, è compito delle aziende e degli individui sviluppare framework per un’AI Responsible e determinare come conformarsi agli standard etici e ai processi di supervisione correlati. Tuttavia, molte organizzazioni di standardizzazione, agenzie di regolamentazione governative e ordini professionali stanno cercando di fornire linee guida di riferimento.

    Negli Stati Uniti, ad esempio, un Ordine Esecutivo emesso nell’ottobre 2023 sullo Sviluppo e l’Uso Sicuro, Protetto e Affidabile dell’AI (EO 14110) ha posto le basi per l’evoluzione degli standard di gestione del rischio nell’AI. Uno degli obiettivi dell’EO 14110 era incaricare il National Institute of Standards and Technology (NIST) di sviluppare standard per l’AI generativa entro 270 giorni dalla pubblicazione dell’ordine. Nel luglio 2024, il NIST ha rilasciato l’AI Risk Management Framework (RMF): Generative AI Profile (NIST AI 600-1), un documento complementare al NIST AI RMF, pubblicato in precedenza nel gennaio 2023. Anche a luglio 2024, l’Unione Europea (UE) ha approvato una normativa pionieristica: l’AI Act dell’UE, il primo quadro giuridico completo pensato per regolamentare lo sviluppo e l’uso dell’intelligenza artificiale.

    Applicare l’AI Responsible in azienda

    Quali passi dovrebbero compiere le aziende per garantire l’adozione e il rispetto delle pratiche di AI Responsible? Rispondere a questa domanda non è semplice senza conoscere il tipo specifico di AI utilizzata e il modo in cui viene applicata all’interno dell’azienda. Tuttavia, esistono alcune best practice generali che possono guidare le organizzazioni verso un’implementazione più etica e sicura dell’intelligenza artificiale:

    • Verificare e valutare la fonte del modello o dello strumento di AI – È fondamentale Comprendere i principi etici, le politiche e le pratiche del fornitore di AI e di qualsiasi altra parte coinvolta nella sua formazione o supervisione continua. Hanno seguito un approccio responsabile durante lo sviluppo e l’addestramento del modello? Quali sono le loro intenzioni attuali e a lungo termine riguardo al modello?
    • Analizzare la fonte dei dati utilizzati per l’addestramento del modello di AI e il modo in cui vengono gestiti – Sono previsti dei controlli per impedire che informazioni non pubbliche o riservate vengano condivise al di fuori dell’istanza del modello o dell’organizzazione? Se il modello utilizza input di terze parti per fornire servizi, l’azienda può fidarsi della fonte dei dati.
    • Garantire la supervisione umana nel processo (HITL – Humans-in-the-Loop) – Il concetto di HITL è ampiamente trattato nelle risorse citate sopra. Tuttavia, è fondamentale ribadire l’importanza del coinvolgimento umana nei sistemi di AI. Integrare il giudizio e l’intervento umano nel processo decisionale dell’AI può essere essenziale per migliorarne sicurezza, affidabilità e conformità etica.
    • Riconoscere il rischio di allucinazioni nei modelli di AI e definire linee guida per la verifica degli output – È fondamentale non diffondere né utilizzare output generati dall’AI senza averne prima verificato l’accuratezza. Anche i modelli di AI più avanzati e ben addestrati possono produrre risultati errati, proprio come gli esseri umani. In generale, per ridurre al minimo il rischio di allucinazioni, una delle migliori pratiche è implementare un approccio HITL (Humans-in-the-Loop).
    • Verificare il diritto di inserire dati di terze parti nel modello di AI e implementare misure di protezione per evitare che i dati vengano utilizzati senza le dovute autorizzazioni – I dati possono includere informazioni su clienti, partner, fornitori o conoscenze generali di mercato, storie e dati operativi. Questi elementi potrebbero contenere informazioni riservate, materiali protetti da copyright, dati personali o altri contenuti che richiedono un’esplicita autorizzazione per essere utilizzati.
    • Attribuire correttamente le fonti nella generazione degli output dell’AI – È fondamentale che le aziende riconoscano l’origine delle informazioni quando utilizzano l’AI per generare contenuti, indipendentemente dal formato o dall’uso previsto. I responsabili dei progetti di AI generativa (GenAI) devono comprendere le differenze e le correlazioni tra “autorialità” e “proprietà” dei contenuti o prodotti creati con l’AI. Garantire un’adeguata attribuzione delle fonti dei contenuti generati dall’AI rafforza il principio chiave della trasparenza nelle pratiche di AI Responsible.

    Conclusioni

    Le pratiche di AI Responsible non si limitano solo alla conformità normativa, ma riflettono l’integrità, i valori e la cultura di un’azienda. Sebbene formazione aggiuntiva e procedure specifiche siano utili per affrontare le complessità dell’AI e della GenAI, le organizzazioni dovrebbero basare il loro approccio su un solido codice etico aziendale, che serva da guida e garanzia.

    di Lee McLean, Legal Counsel and AI Specialist di Zebra Technologies

    Iscriviti alla nostra Newsletter 📬

    Ricevi gli ultimi articoli e aggiornamenti direttamente nella tua casella di posta.

    intelligenza artificiale (AI) Lee McLean Zebra Technologies
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione Top Trade
    • Website
    • Facebook
    • X (Twitter)

    TopTrade è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    RS Italia, Schneider e Adare per un procurement sostenibile e una supply chain responsabile

    04/12/2025

    F5: l’intelligenza artificiale deve essere sicura

    03/12/2025

    Commend, la comunicazione diventa intelligente

    28/11/2025
    Advertisement
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    BitMATv – I video di BitMAT
    Commend, la comunicazione diventa intelligente
    Aikom Technology presenta la sicurezza del futuro a SICUREZZA 2025
    Non c’è produzione senza pianificazione
    Cybersecurity, tra nuove minacce e intelligenza artificiale: la visione di GCI System Integrator
    Jabra: innovazione audio e video per la collaborazione del futuro
    NAVIGAZIONE
    • Tecnologie
    • Strategie
    • Infrastrutture
    • Sicurezza
    • Tendenze
    Informazioni
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 - BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 295 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.