#bias algortimo
Explore tagged Tumblr posts
andrea-biraghi · 4 years ago
Photo
Tumblr media
Gli strumenti di sicurezza dell’Intelligenza Artificiale possono aiutare a mitigare i bias negli algoritmi.
Gli strumenti di sicurezza dell’Intelligenza Artificiale possono aiutare a mitigare i bias negli algoritmi.
Bias: forma di distorsione cognitiva causata dal pregiudizio e può influenzare ideologie, opinioni e comportamenti. In informatica, il bias algoritmico è un errore dovuto da assunzioni errate nel processo di apprendimento automatico.
Così anche gli algortimi sbagliano, in base ad errori sistematici di giudizio o di interpretazione, portando a un errore di valutazione o a formulare giudizi poco oggettivi. Tutto ciò avviene nel processo di apprendimento automatico o in base a set di dati errati.
Però, man mano che l’IA prolifera, i ricercatori iniziano a richiedere tecnologie che possano favorire la fiducia nei sistemi basati sull’IA. Ad oggi i consumatori sono incerti se afidarsi o meno  ad una decisione presa da un sistema di intelligenza artificiale. Ad esempio per ciò che riguarda un prestito bancario, ad esempio. Hanno paura per lo più di decisioni rischiose. L’equità, inoltre, può essere una qualità che sfugge ai sistemi di intelligenza artificiale, ma questo avviene principalmente a causa di distorsioni negli algoritmi e nei set di dati.
Così i ricercatori cercano di addestrare sistemi sempre più sicuri e gli strumenti di sicurezza vengono appunto progettati per impedire che i sistemi stessi assumano comportamenti rischiosi. Si è iniziato anche a etichettare i vari comportamenti con ricompense, per fa apprendere l’IA in modo interattivo.
Gli strumenti di sicurezza così cercano anche di affrontare la mitigazione dei così  detti “pregiudizi” che si formano duramte la fase della progettazione e training.
Continua a leggere sl blog di Andrea Biraghi
1 note · View note