lunedì, 19 Gennaio, 2026
Diritto Dell'informazione - Portale di Informazione
Nessun risultato
Vedi tutti i risultati
  • Home
  • Chi siamo
  • Diritti in Rete
    • Libertà d’informazione
    • Fake news
    • Pluralismo e concorrenza
    • Privacy
    • Diffamazione
    • Copyright
    • Tutela dei minori
  • AI
    • Normativa AI
    • Soluzioni AI
    • Etica AI
  • Pubblico e privato
    • Cittadini
    • Cronaca
    • Imprese
    • Enti pubblici
    • Scuola e università
    • Associazioni e movimenti
    • Authority
    • Ordini professionali
    • Fondazioni
    • Cybersecurity
  • Rubriche
    • L’angolo di Ruben Razzante
    • Tecnologie
    • Libri
  • Innovazione
    • Sostenibilità
    • Blockchain
  • YouTube
  • interviste
  • Ultim’ora
Morning News
Nessun risultato
Vedi tutti i risultati
Home Ai

GLI ATTACCHI HACKER ALL’INTELLIGENZA ARTIFICIALE

La complessità dei sistemi di Intelligenza Artificiale e la loro ampia superficie d'attacco li rendono vulnerabili a molteplici tipologie di minacce, tra cui il data poisoning ossia “l’avvelenamento dei dati”

by Redazione
16 Maggio 2023
in Ai, Etica AI
0 0
0
GLI ATTACCHI HACKER ALL’INTELLIGENZA ARTIFICIALE

Biohazard yellow circle sign graphic illustration

0
CONDIVIDI
FacebookShare on TwitterLinkedinWhatsappEmail

Il data poisoning è una minaccia concreta alla sicurezza dei sistemi di Intelligenza Artificiale basati su Machine Learning. Questo tipo di attacco si verifica quando un hacker modifica in modo malevolo i dati utilizzati per addestrare le componenti di Machine Learning generando una distorsione dei risultati del sistema a favore degli obiettivi dell’hacker con impatti sulla sicurezza delle persone e della comunità. Per questo motivo è fondamentale gestire efficacemente questa minaccia.

Gli attacchi di avvelenamento dei dati possono essere divisi in due categorie principali: quelli che mirano a compromettere il modello di apprendimento e quelli che intendono contaminare l’integrità dei dati. Questi ultimi sono i più complessi e dannosi poiché lasciano il database intatto e creano una backdoor per consentire agli aggressori di controllare il modello. Questi attacchi possono causare gravi danni senza che sia facile rilevarli durante l’attacco.

Una delle prime azioni da intraprendere è includere le applicazioni di Machine Learning e i dataset utilizzati nell’addestramento nei processi di sicurezza dell’organizzazione. In questo modo, i sistemi possono essere protetti da possibili intrusioni di soggetti non autorizzati e da inserimenti di codici malevoli. È altresì consigliabile adottare specifici approcci di data quality, con particolare riferimento all’accuratezza e alla completezza dei dati.

È importante integrare questi approcci fin dalla catena di fornitura dei dati, controllando accuratamente i dati acquisiti da terze parti e sanificando i dataset di addestramento per individuare e rimuovere eventuali dati corrotti. Inoltre, la complessità e la rapida evoluzione delle minacce richiedono un approccio collaborativo che coinvolga il settore della ricerca nell’ambito della sicurezza del Machine Learning e gli organismi di standardizzazione per identificare pratiche di riferimento e framework di gestione specifici per la sicurezza dell’IA.

Gli sviluppatori di sistemi di Intelligenza Artificiale devono adottare un robusto approccio alla sicurezza “by design”. Le organizzazioni utilizzatrici, in particolare quelle che adottano applicazioni di IA critiche per le persone e la comunità, devono integrare le minacce specifiche dei sistemi di IA nei processi di gestione della sicurezza.

In questo modo sarà possibile calcolare i rischi specifici non solo per l’operatività dell’organizzazione, ma anche per le persone e la comunità coinvolte nelle conseguenze di utilizzi impropri o comportamenti inadeguati dei sistemi. Infine, è importante sottolineare come il GDPR, il regolamento europeo sulla protezione dei dati personali, ponga la sicurezza come principio fondamentale per il corretto trattamento dei dati personali.

In questo senso, l’attenzione ai processi di data quality e di sicurezza diventa fondamentale. In sintesi, per gestire efficacemente il data poisoning e le altre minacce alla sicurezza dei sistemi di Intelligenza Artificiale basati su Machine Learning, è necessario un approccio collaborativo tra sviluppatori, organizzazioni utilizzatrici, ricercatori e organismi di standardizzazione.

(S.F.)

Tags: data poisoningIntelligenza artificialemachine learning
Plugin Install : Subscribe Push Notification need OneSignal plugin to be installed.

Articoli Correlati - Articolo

L’EVOLUZIONE TECNOLOGICA NELLO SCI ALPINO
Ai

L’EVOLUZIONE TECNOLOGICA NELLO SCI ALPINO

19 Gennaio 2026
IL VALORE DEGLI ALGORITMI NEL GIORNALISMO DI INCHIESTA
Ai

IL VALORE DEGLI ALGORITMI NEL GIORNALISMO DI INCHIESTA

16 Gennaio 2026
IL LATO OSCURO DEI GIOCATTOLI AI
Ai

IL LATO OSCURO DEI GIOCATTOLI AI

15 Gennaio 2026
LA POESIA CHE AGGIRA CHATGPT
Ai

LA POESIA CHE AGGIRA CHATGPT

15 Gennaio 2026
CYBER ATTACCHI: AZIENDE NEL MIRINO
Ai

CYBER ATTACCHI: AZIENDE NEL MIRINO

15 Gennaio 2026
LA POLITICA ITALIANA E L’INTRODUZIONE DEI SISTEMI AI
Ai

LA POLITICA ITALIANA E L’INTRODUZIONE DEI SISTEMI AI

14 Gennaio 2026

PORTALE SVILUPPATO DA

MyWebSolutions Web Agency

Categorie Articoli

News Popolari

È REATO PUBBLICARE FOTO DI MINORI SENZA IL CONSENSO DEI GENITORI?

È REATO PUBBLICARE FOTO DI MINORI SENZA IL CONSENSO DEI GENITORI?

27 Dicembre 2022
CHI SONO E COSA FANNO GLI INFLUENCER

CHI SONO E COSA FANNO GLI INFLUENCER

29 Novembre 2021
WHATSAPP, E-MAIL E SMS HANNO VALORE DI PROVA LEGALE

WHATSAPP, E-MAIL E SMS HANNO VALORE DI PROVA LEGALE

25 Gennaio 2023
Tutela del diritto d’autore e download di giornali e notizie

Tutela del diritto d’autore e download di giornali e notizie

17 Aprile 2020
DIFFAMAZIONE, INGIURIA E SOCIAL NETWORK

CHAT DI GRUPPO SU WHATSAPP E DIFFAMAZIONE, LA NUOVA SENTENZA DELLA CORTE DI CASSAZIONE

10 Gennaio 2023

In rilievo

CONTINUA LA CRISI NEL MERCATO DI TABLET E CHROMEBOOK

CONTINUA LA CRISI NEL MERCATO DI TABLET E CHROMEBOOK

6 Dicembre 2022
META SOTTO ACCUSA NEGLI STATI UNITI

META SOTTO ACCUSA NEGLI STATI UNITI

25 Ottobre 2023
IL SENATO APPROVA IL DDL CYBERSICUREZZA

IL SENATO APPROVA IL DDL CYBERSICUREZZA

21 Giugno 2024
Social network e deontologia: gli Avvocati

Social network e deontologia: gli Avvocati

5 Luglio 2021
ACQUISTA ORAACQUISTA ORAACQUISTA ORA

RR Consulting

E-mail: redazione.dirittodellin
formazione@gmail.com

Condividi sui Social

Ultimi articoli pubblicati

  • L’EVOLUZIONE TECNOLOGICA NELLO SCI ALPINO 19 Gennaio 2026
  • L’ITALIA E LA LEGGE SUI DATA CENTER 19 Gennaio 2026
  • IL VALORE DEGLI ALGORITMI NEL GIORNALISMO DI INCHIESTA 16 Gennaio 2026

Categorie articoli

Cerca articolo per mese…

Cerca articolo per nome…

Nessun risultato
Vedi tutti i risultati

Calendario Pubblicazioni

Gennaio 2026
L M M G V S D
 1234
567891011
12131415161718
19202122232425
262728293031  
« Dic    
  • Privacy policy
  • Cookie Policy

© 2019 Diritto dell'informazione - P.IVA:06530190963 - Created by MyWebSolutions - Web Agency

Nessun risultato
Vedi tutti i risultati
  • Home
  • Chi siamo
  • Dicono di noi
  • Authority
  • Deontologia dei giornalisti
  • Diffamazione
  • Diritto all’oblio
  • Fake news
  • Libertà d’informazione
  • Eventi
  • Tutela dei minori
  • Copyright
  • Privacy
    • Cittadini
    • Imprese

© 2019 Diritto dell'informazione - P.IVA:06530190963 - Created by MyWebSolutions - Web Agency

Area riservata ai relatori - Accedi al tuo account inserendo il tuo nome utente e la tua password...

Password dimenticata?

Fill the forms bellow to register

All fields are required. Entra

Recupera la tua password

Inserisci il tuo nome utente o indirizzo e-mail per reimpostare la password.

Entra