venerdì, 17 Ottobre, 2025
Diritto Dell'informazione - Portale di Informazione
Nessun risultato
Vedi tutti i risultati
  • Home
  • Chi siamo
  • Diritti in Rete
    • Libertà d’informazione
    • Fake news
    • Pluralismo e concorrenza
    • Privacy
    • Diffamazione
    • Copyright
    • Tutela dei minori
  • AI
    • Normativa AI
    • Soluzioni AI
    • Etica AI
  • Pubblico e privato
    • Cittadini
    • Cronaca
    • Imprese
    • Enti pubblici
    • Scuola e università
    • Associazioni e movimenti
    • Authority
    • Ordini professionali
    • Fondazioni
    • Cybersecurity
  • Rubriche
    • L’angolo di Ruben Razzante
    • Tecnologie
    • Libri
  • Innovazione
    • Sostenibilità
    • Blockchain
  • YouTube
  • interviste
  • Ultim’ora
Morning News
Nessun risultato
Vedi tutti i risultati
Home Ai

GLI ATTACCHI HACKER ALL’INTELLIGENZA ARTIFICIALE

La complessità dei sistemi di Intelligenza Artificiale e la loro ampia superficie d'attacco li rendono vulnerabili a molteplici tipologie di minacce, tra cui il data poisoning ossia “l’avvelenamento dei dati”

by Redazione
16 Maggio 2023
in Ai, Etica AI
0 0
0
GLI ATTACCHI HACKER ALL’INTELLIGENZA ARTIFICIALE

Biohazard yellow circle sign graphic illustration

0
CONDIVIDI
FacebookShare on TwitterLinkedinWhatsappEmail

Il data poisoning è una minaccia concreta alla sicurezza dei sistemi di Intelligenza Artificiale basati su Machine Learning. Questo tipo di attacco si verifica quando un hacker modifica in modo malevolo i dati utilizzati per addestrare le componenti di Machine Learning generando una distorsione dei risultati del sistema a favore degli obiettivi dell’hacker con impatti sulla sicurezza delle persone e della comunità. Per questo motivo è fondamentale gestire efficacemente questa minaccia.

Gli attacchi di avvelenamento dei dati possono essere divisi in due categorie principali: quelli che mirano a compromettere il modello di apprendimento e quelli che intendono contaminare l’integrità dei dati. Questi ultimi sono i più complessi e dannosi poiché lasciano il database intatto e creano una backdoor per consentire agli aggressori di controllare il modello. Questi attacchi possono causare gravi danni senza che sia facile rilevarli durante l’attacco.

Una delle prime azioni da intraprendere è includere le applicazioni di Machine Learning e i dataset utilizzati nell’addestramento nei processi di sicurezza dell’organizzazione. In questo modo, i sistemi possono essere protetti da possibili intrusioni di soggetti non autorizzati e da inserimenti di codici malevoli. È altresì consigliabile adottare specifici approcci di data quality, con particolare riferimento all’accuratezza e alla completezza dei dati.

È importante integrare questi approcci fin dalla catena di fornitura dei dati, controllando accuratamente i dati acquisiti da terze parti e sanificando i dataset di addestramento per individuare e rimuovere eventuali dati corrotti. Inoltre, la complessità e la rapida evoluzione delle minacce richiedono un approccio collaborativo che coinvolga il settore della ricerca nell’ambito della sicurezza del Machine Learning e gli organismi di standardizzazione per identificare pratiche di riferimento e framework di gestione specifici per la sicurezza dell’IA.

Gli sviluppatori di sistemi di Intelligenza Artificiale devono adottare un robusto approccio alla sicurezza “by design”. Le organizzazioni utilizzatrici, in particolare quelle che adottano applicazioni di IA critiche per le persone e la comunità, devono integrare le minacce specifiche dei sistemi di IA nei processi di gestione della sicurezza.

In questo modo sarà possibile calcolare i rischi specifici non solo per l’operatività dell’organizzazione, ma anche per le persone e la comunità coinvolte nelle conseguenze di utilizzi impropri o comportamenti inadeguati dei sistemi. Infine, è importante sottolineare come il GDPR, il regolamento europeo sulla protezione dei dati personali, ponga la sicurezza come principio fondamentale per il corretto trattamento dei dati personali.

In questo senso, l’attenzione ai processi di data quality e di sicurezza diventa fondamentale. In sintesi, per gestire efficacemente il data poisoning e le altre minacce alla sicurezza dei sistemi di Intelligenza Artificiale basati su Machine Learning, è necessario un approccio collaborativo tra sviluppatori, organizzazioni utilizzatrici, ricercatori e organismi di standardizzazione.

(S.F.)

Tags: data poisoningIntelligenza artificialemachine learning
Plugin Install : Subscribe Push Notification need OneSignal plugin to be installed.

Articoli Correlati - Articolo

MAXIMOR CONTRO EXCEL
Ai

MAXIMOR CONTRO EXCEL

17 Ottobre 2025
GROKIPEDIA, LA VERSIONE MIGLIORE DI ENCICLOPEDIA ONLINE?
Ai

GROKIPEDIA, LA VERSIONE MIGLIORE DI ENCICLOPEDIA ONLINE?

16 Ottobre 2025
CHATGPT E IL PARENTAL CONTROL
Ai

CHATGPT E IL PARENTAL CONTROL

16 Ottobre 2025
IBRIDAZIONE DELLE COMPETENZE UOMO-AI
Ai

IBRIDAZIONE DELLE COMPETENZE UOMO-AI

16 Ottobre 2025
SANITA’ E INTELLIGENZA ARTIFICIALE: UN NUOVO CAPITOLO
Ai

SANITA’ E INTELLIGENZA ARTIFICIALE: UN NUOVO CAPITOLO

16 Ottobre 2025
LEGGE SULL’AI: I CAMBIAMENTI DEL SETTORE GIUDIZIARIO
Ai

LEGGE SULL’AI: I CAMBIAMENTI DEL SETTORE GIUDIZIARIO

15 Ottobre 2025

PORTALE SVILUPPATO DA

MyWebSolutions Web Agency

Categorie Articoli

News Popolari

È REATO PUBBLICARE FOTO DI MINORI SENZA IL CONSENSO DEI GENITORI?

È REATO PUBBLICARE FOTO DI MINORI SENZA IL CONSENSO DEI GENITORI?

27 Dicembre 2022
CHI SONO E COSA FANNO GLI INFLUENCER

CHI SONO E COSA FANNO GLI INFLUENCER

29 Novembre 2021
WHATSAPP, E-MAIL E SMS HANNO VALORE DI PROVA LEGALE

WHATSAPP, E-MAIL E SMS HANNO VALORE DI PROVA LEGALE

25 Gennaio 2023
Tutela del diritto d’autore e download di giornali e notizie

Tutela del diritto d’autore e download di giornali e notizie

17 Aprile 2020
DIFFAMAZIONE, INGIURIA E SOCIAL NETWORK

CHAT DI GRUPPO SU WHATSAPP E DIFFAMAZIONE, LA NUOVA SENTENZA DELLA CORTE DI CASSAZIONE

10 Gennaio 2023

In rilievo

FIRMATA INTESA TRA AGENZIA DELLE ENTRATE E MINISTERO DELLA GIUSTIZIA PER L’ACCESSO AI DATI SUI BENI DA PIGNORARE

FIRMATA INTESA TRA AGENZIA DELLE ENTRATE E MINISTERO DELLA GIUSTIZIA PER L’ACCESSO AI DATI SUI BENI DA PIGNORARE

3 Luglio 2023
COMPIE 25 ANNI GOOGLE, IL MOTORE DI RICERCA PIÙ USATO AL MONDO

COMPIE 25 ANNI GOOGLE, IL MOTORE DI RICERCA PIÙ USATO AL MONDO

27 Settembre 2023
SHARENTING E PRIVACY

SHARENTING E PRIVACY

14 Settembre 2023
PRIVACY E RACCOLTA DI DATI FACCIALI

PRIVACY E RACCOLTA DI DATI FACCIALI

1 Giugno 2022
ACQUISTA ORAACQUISTA ORAACQUISTA ORA

RR Consulting

E-mail: redazione.dirittodellin
formazione@gmail.com

Condividi sui Social

Ultimi articoli pubblicati

  • MAXIMOR CONTRO EXCEL 17 Ottobre 2025
  • GROKIPEDIA, LA VERSIONE MIGLIORE DI ENCICLOPEDIA ONLINE? 16 Ottobre 2025
  • CHATGPT E IL PARENTAL CONTROL 16 Ottobre 2025

Categorie articoli

Cerca articolo per mese…

Cerca articolo per nome…

Nessun risultato
Vedi tutti i risultati

Calendario Pubblicazioni

Ottobre 2025
L M M G V S D
 12345
6789101112
13141516171819
20212223242526
2728293031  
« Set    
  • Privacy policy
  • Cookie Policy

© 2019 Diritto dell'informazione - P.IVA:06530190963 - Created by MyWebSolutions - Web Agency

Nessun risultato
Vedi tutti i risultati
  • Home
  • Chi siamo
  • Dicono di noi
  • Authority
  • Deontologia dei giornalisti
  • Diffamazione
  • Diritto all’oblio
  • Fake news
  • Libertà d’informazione
  • Eventi
  • Tutela dei minori
  • Copyright
  • Privacy
    • Cittadini
    • Imprese

© 2019 Diritto dell'informazione - P.IVA:06530190963 - Created by MyWebSolutions - Web Agency

Area riservata ai relatori - Accedi al tuo account inserendo il tuo nome utente e la tua password...

Password dimenticata? Sign Up

Fill the forms bellow to register

All fields are required. Entra

Recupera la tua password

Inserisci il tuo nome utente o indirizzo e-mail per reimpostare la password.

Entra