giovedì, 17 Luglio, 2025
Diritto Dell'informazione - Portale di Informazione
Nessun risultato
Vedi tutti i risultati
  • Home
  • Chi siamo
  • Diritti in Rete
    • Libertà d’informazione
    • Fake news
    • Pluralismo e concorrenza
    • Privacy
    • Diffamazione
    • Copyright
    • Tutela dei minori
  • AI
    • Normativa AI
    • Soluzioni AI
    • Etica AI
  • Pubblico e privato
    • Cittadini
    • Cronaca
    • Imprese
    • Enti pubblici
    • Scuola e università
    • Associazioni e movimenti
    • Authority
    • Ordini professionali
    • Fondazioni
    • Cybersecurity
  • Rubriche
    • L’angolo di Ruben Razzante
    • Tecnologie
    • Libri
  • Innovazione
    • Sostenibilità
    • Blockchain
  • YouTube
  • interviste
  • Ultim’ora
Morning News
Nessun risultato
Vedi tutti i risultati
Home Ai

GLI ATTACCHI HACKER ALL’INTELLIGENZA ARTIFICIALE

La complessità dei sistemi di Intelligenza Artificiale e la loro ampia superficie d'attacco li rendono vulnerabili a molteplici tipologie di minacce, tra cui il data poisoning ossia “l’avvelenamento dei dati”

by Redazione
16 Maggio 2023
in Ai, Etica AI
0 0
0
GLI ATTACCHI HACKER ALL’INTELLIGENZA ARTIFICIALE

Biohazard yellow circle sign graphic illustration

0
CONDIVIDI
FacebookShare on TwitterLinkedinWhatsappEmail

Il data poisoning è una minaccia concreta alla sicurezza dei sistemi di Intelligenza Artificiale basati su Machine Learning. Questo tipo di attacco si verifica quando un hacker modifica in modo malevolo i dati utilizzati per addestrare le componenti di Machine Learning generando una distorsione dei risultati del sistema a favore degli obiettivi dell’hacker con impatti sulla sicurezza delle persone e della comunità. Per questo motivo è fondamentale gestire efficacemente questa minaccia.

Gli attacchi di avvelenamento dei dati possono essere divisi in due categorie principali: quelli che mirano a compromettere il modello di apprendimento e quelli che intendono contaminare l’integrità dei dati. Questi ultimi sono i più complessi e dannosi poiché lasciano il database intatto e creano una backdoor per consentire agli aggressori di controllare il modello. Questi attacchi possono causare gravi danni senza che sia facile rilevarli durante l’attacco.

Una delle prime azioni da intraprendere è includere le applicazioni di Machine Learning e i dataset utilizzati nell’addestramento nei processi di sicurezza dell’organizzazione. In questo modo, i sistemi possono essere protetti da possibili intrusioni di soggetti non autorizzati e da inserimenti di codici malevoli. È altresì consigliabile adottare specifici approcci di data quality, con particolare riferimento all’accuratezza e alla completezza dei dati.

È importante integrare questi approcci fin dalla catena di fornitura dei dati, controllando accuratamente i dati acquisiti da terze parti e sanificando i dataset di addestramento per individuare e rimuovere eventuali dati corrotti. Inoltre, la complessità e la rapida evoluzione delle minacce richiedono un approccio collaborativo che coinvolga il settore della ricerca nell’ambito della sicurezza del Machine Learning e gli organismi di standardizzazione per identificare pratiche di riferimento e framework di gestione specifici per la sicurezza dell’IA.

Gli sviluppatori di sistemi di Intelligenza Artificiale devono adottare un robusto approccio alla sicurezza “by design”. Le organizzazioni utilizzatrici, in particolare quelle che adottano applicazioni di IA critiche per le persone e la comunità, devono integrare le minacce specifiche dei sistemi di IA nei processi di gestione della sicurezza.

In questo modo sarà possibile calcolare i rischi specifici non solo per l’operatività dell’organizzazione, ma anche per le persone e la comunità coinvolte nelle conseguenze di utilizzi impropri o comportamenti inadeguati dei sistemi. Infine, è importante sottolineare come il GDPR, il regolamento europeo sulla protezione dei dati personali, ponga la sicurezza come principio fondamentale per il corretto trattamento dei dati personali.

In questo senso, l’attenzione ai processi di data quality e di sicurezza diventa fondamentale. In sintesi, per gestire efficacemente il data poisoning e le altre minacce alla sicurezza dei sistemi di Intelligenza Artificiale basati su Machine Learning, è necessario un approccio collaborativo tra sviluppatori, organizzazioni utilizzatrici, ricercatori e organismi di standardizzazione.

(S.F.)

Tags: data poisoningIntelligenza artificialemachine learning
Plugin Install : Subscribe Push Notification need OneSignal plugin to be installed.

Articoli Correlati - Articolo

L’INTELLIGENZA ARTIFICIALE ENTRA IN PARLAMENTO
Ai

L’INTELLIGENZA ARTIFICIALE ENTRA IN PARLAMENTO

15 Luglio 2025
OBIEZIONE VOSTRO ONORE: IL CASO NON ESISTE
Ai

OBIEZIONE VOSTRO ONORE: IL CASO NON ESISTE

15 Luglio 2025
È STATO PUBBLICATO IL CODICE DI CONDOTTA DELL’AI ACT
Ai

È STATO PUBBLICATO IL CODICE DI CONDOTTA DELL’AI ACT

15 Luglio 2025
AI E NEURODIVERGENZE: UNA NUOVA GRAMMATICA PEDAGOGICA 
Ai

AI E NEURODIVERGENZE: UNA NUOVA GRAMMATICA PEDAGOGICA 

11 Luglio 2025
NORME AI SOTTO PRESSIONE: L’UE RESISTE, GLI USA SI SPACCANO
Ai

NORME AI SOTTO PRESSIONE: L’UE RESISTE, GLI USA SI SPACCANO

11 Luglio 2025
IL CHATBOT POLITICAMENTE SCORRETTO DI ELON MUSK
Ai

IL CHATBOT POLITICAMENTE SCORRETTO DI ELON MUSK

11 Luglio 2025

PORTALE SVILUPPATO DA

MyWebSolutions Web Agency

Categorie Articoli

News Popolari

È REATO PUBBLICARE FOTO DI MINORI SENZA IL CONSENSO DEI GENITORI?

È REATO PUBBLICARE FOTO DI MINORI SENZA IL CONSENSO DEI GENITORI?

27 Dicembre 2022
CHI SONO E COSA FANNO GLI INFLUENCER

CHI SONO E COSA FANNO GLI INFLUENCER

29 Novembre 2021
WHATSAPP, E-MAIL E SMS HANNO VALORE DI PROVA LEGALE

WHATSAPP, E-MAIL E SMS HANNO VALORE DI PROVA LEGALE

25 Gennaio 2023
Tutela del diritto d’autore e download di giornali e notizie

Tutela del diritto d’autore e download di giornali e notizie

17 Aprile 2020
DIFFAMAZIONE, INGIURIA E SOCIAL NETWORK

CHAT DI GRUPPO SU WHATSAPP E DIFFAMAZIONE, LA NUOVA SENTENZA DELLA CORTE DI CASSAZIONE

10 Gennaio 2023

In rilievo

MAGGIORE ETÀ DIGITALE A 16 ANNI? ECCO LE PROPOSTE DELL’AUTORITÀ GARANTE PER L’INFANZIA E L’ADOLESCENZA

MAGGIORE ETÀ DIGITALE A 16 ANNI? ECCO LE PROPOSTE DELL’AUTORITÀ GARANTE PER L’INFANZIA E L’ADOLESCENZA

23 Gennaio 2023
PHISHING, POSTE ITALIANE DEVE RISARCIRE IL CLIENTE FRODATO

PHISHING, POSTE ITALIANE DEVE RISARCIRE IL CLIENTE FRODATO

15 Febbraio 2024
PRIVACY: UN NUOVO BROWSER SENZA LA RETE TOR

PRIVACY: UN NUOVO BROWSER SENZA LA RETE TOR

19 Aprile 2023
ALLA SCOPERTA DI ERNIE, IL CHATBOT CINESE

ALLA SCOPERTA DI ERNIE, IL CHATBOT CINESE

17 Marzo 2023
ACQUISTA ORAACQUISTA ORAACQUISTA ORA

RR Consulting

E-mail: redazione.dirittodellin
formazione@gmail.com

Condividi sui Social

Ultimi articoli pubblicati

  • PRESENTATA LA RELAZIONE ANNUALE AGCOM 2025 16 Luglio 2025
  • GIUSTIZIA E INFORMAZIONE NELLA RELAZIONE 2024 DEL GARANTE 16 Luglio 2025
  • AI E MINORI: I NUOVI RISCHI SECONDO LA RELAZIONE ANNUALE DEL GARANTE 16 Luglio 2025

Categorie articoli

Cerca articolo per mese…

Cerca articolo per nome…

Nessun risultato
Vedi tutti i risultati

Calendario Pubblicazioni

Luglio 2025
L M M G V S D
 123456
78910111213
14151617181920
21222324252627
28293031  
« Giu    
  • Privacy policy
  • Cookie Policy

© 2019 Diritto dell'informazione - P.IVA:06530190963 - Created by MyWebSolutions - Web Agency

Nessun risultato
Vedi tutti i risultati
  • Home
  • Chi siamo
  • Dicono di noi
  • Authority
  • Deontologia dei giornalisti
  • Diffamazione
  • Diritto all’oblio
  • Fake news
  • Libertà d’informazione
  • Eventi
  • Tutela dei minori
  • Copyright
  • Privacy
    • Cittadini
    • Imprese

© 2019 Diritto dell'informazione - P.IVA:06530190963 - Created by MyWebSolutions - Web Agency

Area riservata ai relatori - Accedi al tuo account inserendo il tuo nome utente e la tua password...

Password dimenticata?

Fill the forms bellow to register

All fields are required. Entra

Recupera la tua password

Inserisci il tuo nome utente o indirizzo e-mail per reimpostare la password.

Entra