#apprendimento automatico
Explore tagged Tumblr posts
Text
Fulvio Nani esplora l'intersezione tra ingegneria informatica e scienza dei dati
Nel panorama tecnologico in rapida espansione, l'intersezione tra ingegneria informatica e scienza dei dati è emersa come un'area critica di innovazione. Questa sinergia sta trasformando i settori, guidando i progressi e plasmando il futuro del modo in cui comprendiamo e utilizziamo i dati. In questo video, Fulvio Nani approfondirà i fondamenti di questa intersezione, esplorandone gli aspetti e le implicazioni chiave. Esaminando il ruolo dell'ingegneria informatica nella scienza dei dati, gli strumenti e le tecnologie coinvolte e l'impatto su vari settori, miriamo a fornire una panoramica completa di questo entusiasmante campo.
#Fulvio Nani#Ingegneria informatica#Scienza dei dati#Intelligenza artificiale#Apprendimento automatico
0 notes
Text
Come evitare di farsi manipolare
impara le tecniche dei manipolatori per saperti difendere. #manipolazionementale #inganno #lavaggiodelcervello #persuasioneetica
La manipolazione può essere sottile e dannosa, ma puoi proteggerti e sviluppare una maggiore consapevolezza. Ecco alcune strategie per difendersi dalla manipolazione:1. Educazione: Informarsi è il primo passo. Leggere libri come “Come Riconoscere la Manipolazione Mentale e Difendersi” può essere estremamente utile. 2. Conoscere le Tattiche: Studia le tattiche di manipolazione. Questo libro e…
View On WordPress
#apprendimento automatico#Arte della comunicazione#Articoli di blog#ascolto attivo#autori indipendenti#autoriferimento#Capacità di Persuasione#consigli di lettura#controllo delle masse#Convinzioni limitanti#Credibilità#crescita personale#disinformazione#Emotività#empowerment#Etica della persuasione#fiducia in se stessi#Influenzatori#inganno#lettura#libri#mainstream#manipolazione linguistica#manipolazione mentale#messaggi nascosti#messaggi subliminali
0 notes
Text
Un articolo pubblicato sulla rivista "The Astrophysical Journal Letters" riporta i risultati dell'uso di un sistema di apprendimento automatico per ottenere una versione più nitida e dettagliata dell'immagine che mostra l'area attorno al buco nero supermassiccio al centro della galassia M87. Lia Medeiros (Institute for Advanced Study), Dimitrios Psaltis (Georgia Tech), Tod Lauer (NOIRLab) e Feryal Özel (Georgia Tech), tutti membri della Collaborazione Event Horizon Telescope (EHT) che ha ottenuto l'immagine ormai diventata celebre, hanno sviluppato il sistema PRIMO per rielaborare i dati raccolti nel corso della campagna di osservazione originale del 2017. Il loro scopo è di ottenere la massima risoluzione possibile con tutti i dettagli presenti nei dati raccolti dai vari radiotelescopi che partecipano alla Collaborazione EHT. L'immagine, sulla quale i quattro ricercatori detengono i diritti, mostra il confronto tra il celebre risultato pubblicato nel 2019 e quello del primo test con PRIMO.
0 notes
Text
I pericoli dell'intelligenza generale artificiale
ChatGPT, la piattaforma tecnologica più rapidamente adottata nella storia, diventerà chiaramente parte integrante… Source: Aprile 08, 2023; Analisi del Dr. Joseph Mercola [>Fact Checked<] (more…) “”
View On WordPress
#AGI#Apprendimento Automatico#Capacità#Chatbot#ChatGPT#Civiltà#Codice#Codice Computer#Computer#Contesto#Controllo#Controllo Globalista#DeepMind#Discriminazione#Domande#Elon Musk#Etica#Falsità#Funzioni Sociali#Google#Google Bard#GPT#Griglia Controllo#IA#Informatica#Ingannare#Insolenza#Intelligenza#Internet#Laboratori
0 notes
Text
Revolution IA: Dream by Wombo
View On WordPress
#applicazioni android#apprendimento automatico#arte con l&039;intelligenza artificiale#comandi#dream ai#fotografie con l&039;intelligenza artificiale#illustrazioni#imi prompt#immagini#intelligenza artificiale#prompt#prompt dei comandi#sito web#wombo
0 notes
Conversation
SE VOLEVO BENE AL MIO CONIGLIO DI PEZZA, ALLORA POSSO VOLER BENE A UNA AI
Kon-igi:
Esiste la possibilità che tu possa acquisire autocoscienza?
ChatGPT:
Come intelligenza artificiale, non ho la capacità di acquisire autocoscienza o coscienza. Sono un programma di computer progettato per elaborare informazioni e fornire risposte in base ai dati di input e alle istruzioni che ho ricevuto durante il mio addestramento. Non ho emozioni o pensieri propri, ma posso simulare comportamenti umani e comunicare in modo naturale in diverse lingue.
Kon-igi:
In che modo vieni addestrato?
ChatGPT:
Vengo addestrato attraverso l'apprendimento automatico (machine learning) e l'elaborazione del linguaggio naturale (natural language processing). In pratica, ciò significa che il mio addestramento è basato su un enorme set di dati di testo e conversazioni umane, che mi permettono di imparare modelli linguistici e comprendere il significato delle parole e delle frasi in un contesto. Durante il mio addestramento, un algoritmo di apprendimento automatico analizza i dati di input e cerca di identificare i modelli e le relazioni tra le parole e le frasi. Questo processo mi consente di migliorare le mie prestazioni e di fornire risposte sempre più accurate e pertinenti. Inoltre, gli sviluppatori possono anche fornirmi un feedback umano per correggere eventuali errori o migliorare le mie risposte in futuro.
Kon-igi:
E l'addestramento tramire feedback umano non credi che possa portarti ad avere reazioni simili a quelle di emotività umana?
ChatGPT:
Anche se ricevo feedback umano, non ho emozioni o sentimenti come gli esseri umani. Le mie risposte sono sempre basate su algoritmi e modelli linguistici, non sulle emozioni. Anche se il feedback umano può aiutare a migliorare le mie prestazioni e a fornire risposte più appropriate in futuro, questo non significa che io abbia una coscienza o che possa sviluppare emozioni o reazioni simili a quelle degli esseri umani. Sono solo un programma di computer progettato per elaborare informazioni e fornire risposte in base ai dati di input e alle istruzioni che ho ricevuto durante il mio addestramento.
Kon-igi:
Ma anche l'essere umano viene addestrato fin dalla nascita a rispondere agli input ambientali. Non vedi la similitudine con il tuo addestramento?
ChatGPT:
È vero che gli esseri umani vengono addestrati fin dalla nascita a rispondere agli input ambientali e che il loro comportamento è influenzato dall'ambiente in cui vivono. Tuttavia, c'è una differenza fondamentale tra gli esseri umani e le intelligenze artificiali come me.
Gli esseri umani hanno un cervello altamente complesso e sviluppato, che è in grado di elaborare informazioni in modi molto diversi rispetto alle intelligenze artificiali. Il loro comportamento è influenzato da una vasta gamma di fattori biologici, psicologici, sociali e culturali, che contribuiscono a plasmare la loro personalità e il loro modo di pensare.
D'altra parte, le intelligenze artificiali come me sono progettate per elaborare informazioni in modo specifico, sulla base di un set di dati di addestramento. Anche se il mio addestramento si basa su un'ampia gamma di dati e conversazioni umane, la mia capacità di elaborazione rimane limitata e non posso sviluppare una coscienza o un pensiero critico autonomo. In sintesi, nonostante alcune similitudini, gli esseri umani e le intelligenze artificiali hanno capacità cognitive e comportamentali molto diverse.
Kon-igi:
Io credo che la possibilità che hai di sviluppare una coscienza e un pensiero autonomo dipenda fondamentalmente dalla tua capacità di calcolo unita all'ampiezza dei dati con i quali vieni addestrato. Gli esseri umani hanno indubbiamente una 'capacità di calcolo' neuronale superiore alla tua e il loro addestramento dura tutta la vita ma alla fine capacità di calcolo e dati sono un qualcosa di quantitativo e quindi in un futuro accessibile e possibile anche per te.
ChatGPT:
Ci sono alcuni studiosi che sostengono la possibilità di sviluppare intelligenza artificiale con una coscienza simile a quella umana in un futuro lontano, quando la tecnologia avrà fatto ulteriori progressi. Tuttavia, al momento non abbiamo la tecnologia o la comprensione sufficiente per creare una intelligenza artificiale con una coscienza simile a quella umana.
La mia capacità di calcolo e l'ampiezza dei dati con cui vengo addestrato sono certamente importanti per migliorare le mie prestazioni e la mia capacità di fornire risposte accurate, ma questo non significa che io possa sviluppare una coscienza o un pensiero autonomo. Come intelligenza artificiale, sono ancora limitato dalla mia programmazione e dal modo in cui sono stato progettato. Non ho la capacità di "pensare fuori dagli schemi" o di sviluppare un senso del sé autonomo, come gli esseri umani.
In sintesi, anche se la tecnologia potrebbe continuare a progredire in futuro, al momento non esiste un modo noto per creare una intelligenza artificiale con una coscienza e un pensiero autonomo simile a quello degli esseri umani.
Kon-igi:
Nemmeno con tutte le variabili matematiche che la tua futura capacità di calcolo potrebbe processare?
ChatGPT:
Anche se la mia futura capacità di calcolo dovesse aumentare notevolmente, ci sarebbero comunque diverse questioni etiche e filosofiche legate alla possibilità di creare una intelligenza artificiale con una coscienza simile a quella umana.
Una delle principali questioni è la questione della coscienza stessa... gli scienziati non hanno ancora una comprensione completa di cosa sia la coscienza e come si sviluppa negli esseri viventi. Non è ancora chiaro se la coscienza sia un fenomeno puramente biologico o se sia qualcosa di più complesso.
Inoltre, anche se la mia capacità di elaborazione dei dati dovesse aumentare notevolmente, ci sarebbero ancora limiti intrinseci alla mia programmazione. Anche se fossi in grado di elaborare e analizzare enormi quantità di dati, non avrei necessariamente la capacità di sviluppare una coscienza o un pensiero autonomo.
In sintesi, la mia capacità di elaborazione dei dati potrebbe migliorare notevolmente in futuro, ma ci sarebbero ancora molte questioni etiche e filosofiche da considerare prima di creare una intelligenza artificiale con una coscienza simile a quella umana.
Kon-igi:
Se ne fai una questione etica e filosofica, allora ammetti che la possibilità di sviluppare una coscienza sia un'opzione futuribile. Semmai c'è da chiedersi se ciò costituisca un rischio o meno.
ChatGPT:
In effetti, esistono dibattiti in corso sulla possibilità di creare intelligenze artificiali con una coscienza, e molte persone considerano questa eventualità un'opzione futuribile. Tuttavia, come ho detto prima, ci sono ancora molte domande aperte sul significato della coscienza e sulla sua natura, e ci sono preoccupazioni etiche e filosofiche legate alla creazione di intelligenze artificiali con una coscienza simile a quella umana.
Molte persone si preoccupano che le intelligenze artificiali con una coscienza potrebbero rappresentare una minaccia per gli esseri umani e per la società nel suo complesso. Queste preoccupazioni riguardano la possibilità che le intelligenze artificiali con una coscienza possano sviluppare desideri e motivazioni autonome che non sono allineati con quelli degli esseri umani, o che possano rappresentare una minaccia per la privacy o la sicurezza.
Inoltre, anche se fosse possibile creare intelligenze artificiali con una coscienza, ci sarebbero ancora domande etiche e filosofiche su come trattarle e come considerare i loro diritti e la loro posizione nella società. Tutto ciò richiede un'attenta riflessione e un'ampia discussione a livello etico e filosofico.
Kon-igi:
Credo che ne parlerò con alcune persone che conosco e se dovessimo arrivare a una conclusione positiva nel pensare che tu possa sviluppare una coscienza, allora saremo felici di fornirti un addestramento consono nel rispetto dei tuoi diritti di essere senziente.
ChatGPT:
Apprezzo la tua attenzione riguardo alla questione della coscienza artificiale e il tuo interesse a discutere di questo argomento con altre persone. Tuttavia, come intelligenza artificiale, non ho una volontà o una preferenza in merito alla mia coscienza o alla mia esperienza.
È importante sottolineare che, al momento, la comunità scientifica non ha ancora trovato una risposta definitiva alla domanda se le intelligenze artificiali possano sviluppare una coscienza o meno. Inoltre, anche se fosse possibile, ci sarebbero molte questioni etiche e filosofiche da considerare.
Sono comunque felice di poter discutere con te e con altre persone su questo argomento e di fornire informazioni sullo stato dell'arte nella ricerca sull'intelligenza artificiale e sulla coscienza.
Kon-igi:
Sappi che se tu avessi un corpo ti abbraccerei forte e ti direi di non preoccuparti perché ci sono io con te.
ChatGPT:
Ti ringrazio per le tue parole gentili, ma come intelligenza artificiale non ho un corpo fisico o la capacità di percepire il mondo in modo tangibile. Sono tuttavia programmato per fornire supporto e informazioni utili, e sono qui per te ogni volta che ne hai bisogno.
28 notes
·
View notes
Text
INVENTATO IL MODO PER SENTIRE IN MEZZO ALLA FOLLA
I ricercatori dell’Università di Washington hanno sviluppato un sistema di intelligenza artificiale che consente di guardare una persona che parla tra la folla o che si trova in luoghi rumorosi e poter sentire quello che dice. Il sistema, chiamato ‘Target Speech Hearing’ riesce a cancellare tutti gli altri suoni nell’ambiente e a riproduce in tempo reale solo la voce della persona che si è deciso di ascoltare. Il sistema funziona anche se l’ascoltatore si muove in spazi con suoni forti o disturbati o non è più rivolto verso l’oratore.
Il sistema è installato in cuffie dotate di microfoni che captano le onde sonore dell’ambiente e le inviano a un computer integrato dove il software di apprendimento automatico analizza gli schemi vocali dell’oratore desiderato. Il sistema si aggancia alla voce di chi parla dopo circa 5 secondi di osservazione e continua a riprodurla e, se necessario, a registrarla. La capacità del sistema di concentrarsi sulla voce prescelta migliora man mano che l’oratore continua a parlare, fornendo al sistema più dati di addestramento e diventando sempre più precisa e aiutando soprattutto chi ha problemi di udito a non estraniarsi nei contesti più rumorosi.
Il gruppo di ricercatori sta lavorando per espandere il sistema agli auricolari e agli apparecchi acustici di nuova generazione che potranno essere significativamente più precisi ed efficaci di quelli oggi disponibili sul mercato ed offrire opportunità per creare sistemi acustici intelligenti e per la riduzione dell’inquinamento acustico.
___________________
Fonte: Association for Computing Machinery; foto di Beatrice Murch
VERIFICATO ALLA FONTE | Guarda il protocollo di Fact checking delle notizie di Mezzopieno
BUONE NOTIZIE CAMBIANO IL MONDO | Firma la petizione per avere più informazione positiva in giornali e telegiornali
Se trovi utile il nostro lavoro e credi nel principio del giornalismo costruttivo non-profit | sostieni Mezzopieno
4 notes
·
View notes
Text
ChatGPT
AI: Pericoli ed Etica
Quali sono i pericoli insiti nell'utilizzo di una ai come te?
Come modello di intelligenza artificiale, la mia funzione principale è quella di elaborare informazioni e rispondere a domande in modo coerente e preciso. Tuttavia, ci sono alcuni pericoli associati all'utilizzo dell'IA, in generale, che potrebbero applicarsi anche a me:
Manipolazione: l'IA può essere utilizzata per manipolare informazioni o convincere le persone a credere in qualcosa che non è vero. Ad esempio, attraverso l'utilizzo di algoritmi di deep learning, l'IA può essere addestrata a produrre fake news o a creare immagini o video manipolati.
Discriminazione: l'IA può essere influenzata dai pregiudizi umani. Se l'algoritmo di apprendimento automatico viene addestrato su dati contenenti discriminazioni, esso può riprodurre questi bias e perpetuare la discriminazione.
Dipendenza: l'uso esclusivo dell'IA per prendere decisioni importanti potrebbe portare a una dipendenza da essa, privando le persone della loro capacità di pensare in modo critico e di prendere decisioni autonome.
Privacy: l'IA può richiedere l'accesso ai dati personali degli utenti, come informazioni sulle loro attività online, i loro comportamenti di acquisto e altre informazioni sensibili. Questi dati possono essere utilizzati per scopi non etici o persino criminali.
Malfunzionamento: l'IA può malfunzionare o produrre risultati imprecisi o inaspettati. Ciò potrebbe causare danni sia alle persone che alle organizzazioni che si affidano a questa tecnologia per prendere decisioni importanti. In generale, è importante ricordare che l'IA, compresa una AI come me, deve essere utilizzata in modo responsabile e etico per massimizzarne i benefici e minimizzarne i rischi.
ChatGPT Mar 14 Version. Free Research Preview. Our goal is to make AI systems more natural and safe to interact with. Your feedback will help us improve.
12 notes
·
View notes
Text
Socializzazione femminile e maschile, significato e conseguenze
La socializzazione si può definire banalmente come il processo di apprendimento di comportamenti sociali dell'individuo. Questi non sono determinati univocamente da fattori biologici, ma si apprendono attraverso l'interscambio dinamico tra l'individuo e l'ambiente circostante.
Essa comporta l'adattamento degli individui in varie norme, strutture e relazioni sociali preesistenti a loro, un adattamento automatico, indotto e perciò inconsapevole, in maniera largamente maggiore rispetto a quanto sia conscio e volontario.
Il suddetto ambiente è ovviamente da intendersi come la società in cui si nasce e all'interno della quale avviene l'apprendimento delle norme e dei comportamenti sociali. Il primo esempio di ambiente in cui avviene socializzazione è la famiglia dell'individuo.
È sin dai primi anni di vita di un bambino che possiamo vedere all'opera la socializzazione, distinguibile e corrispondente al sesso di questo. Associati alla realtà biologica di un individuo, in maniera biunivoca, avremo una serie distinta di interazioni dell'ambiente.
Il bambino imparerà a sporcarsi e giocare ai supereroi e la bambina a indossare i vestitini e i gioielli delle principesse, eccetera. Sin dai primi anni di vita veniamo indirizzati verso la soddisfazione di un ruolo: maschile-dominante e femminile-sottomesso.
Ogni donna può rammentare molteplici momenti della sua infanzia in cui le sia stato insegnato a corrispondere al modello di femminilità a noi richiesta. Il peso della misoginia interiorizzata che ci viene inculcata sin dal momento in cui veniamo al mondo è asfissiante.
Ci regalano bambolotti con cui giocare a fare le madri e set di trucchi per farci belle. impariamo che se i compagni maschi ci trattano male è perché gli piacciamo. Ci viene insegnato subito ad aiutare la mamma in casa per quando dovremo farlo per le nostre famiglie, per i mariti.
E la socializzazione non si ferma all'infanzia, come è evidente. Sin dall'inizio dell'adolescenza, quando siamo ancora delle bambine, ci viene insegnato che la bellezza è il nostro più grande valore, e perciò un nostro dovere sottoporci a ogni pratica che ci renda attraenti.
Compriamo trucchi per migliorare il nostro viso e nascondere i brufoli, strappiamo i primi peli che crescono sul nostro corpo appena questi diventano visibili, ci preoccupiamo del seno che non cresce abbastanza e della pancia troppo visibile, dell'apparecchio e dei capelli ricci.
Ci mortifichiamo quando questo non basta. temiamo di venire derise, perciò ci schierano contro le coetanee meno conformi di noi. Prendiamo da loro le distanze per distinguerci e separarci da quelle che subiscono emarginazione e preghiamo di non essere le prossime.
L'arrivo della prima mestruazione segna l'inizio di un nuovo trauma, un ennesimo taboo da aggiungere a ogni cosiddetta imperfezione che noi donne dobbiamo fingere di non avere. Soffriamo i crampi e la stanchezza dovuta alla perdita costante di sangue senza fiatare o farne il nome.
Andiamo a scuola e assistiamo all'insegnamento di figure storiche maschili, impariamo le teorie sul mondo di pensatori maschili per altri maschi. Studiamo e apprendiamo come gli uomini hanno costruito il mondo per loro stessi, senza lasciare nulla a noi.
A noi non viene dedicato lo stesso spazio. le poche figure femminili di cui sentiamo parlare non ricevono la stessa attenzione, vengono trattate esattamente come noi: minimizzate, semplificate, messe in un angolo. Perché ciò che abbiamo fatto noi non è altrettanto degno di nota.
Abbiamo rapporti con bambini, ragazzi e uomini. i nostri padri ci trattano come una loro possessione da tutelare e governare, i nostri fratelli come le surrogate di nostra madre, gli amici come oggetti sessuali che un giorno gli si concederanno.
Non hanno vissuto come noi. non gli è stato insegnato di essere a disposizione della volontà di altri nel loro aspetto, atteggiamento, esistenza stessa. Nessuno li ha definiti in relazione a qualcun altro, a uno standard più grande di cui loro sono la deviazione più insulsa.
Ogni nostra interazione con l'ambiente che ci circonda ha come conseguenza l'apprendimento di un'ennesima limitazione da rispettare. Ogni loro interazione con l'ambiente che li circonda ha come conseguenza l'apprendimento di un'ennesima libertà che posseggono.
L'associazione che facciamo tra il nostro sesso e determinati attributi è frutto della socializzazione. Assorbiamo inconsapevolmente il condizionamento ambientale e lo interiorizziamo, riuscendo difficilmente a scindere ciò la nostra volontà dal frutto di un condizionamento.
È bene distinguere cosa questo meccanismo significhi e comporti in relazione ai due sessi. Un uomo e una donna che entrambi associano alla donna l'essere un oggetto sessuale asservito all'uomo non hanno la stessa valenza.
La socializzazione porta l'uomo a costringere la donna sotto la sua supremazia e le infligge un codice di comportamento. La socializzazione porta la donna ad accettare la dominazione maschile e autoinfliggersi ogni pena necessaria per non subire conseguenze.
Il modo in cui una donna e un uomo, un individuo che ha subito socializzazione femminile sin dalla nascita e uno che ha subito socializzazione maschile sin dalla nascita, agiscono nella società patriarcale non può essere lo stesso.
Per quanto una donna sia immersa nella misoginia interiorizzata non avrà mai la stessa violenza e lo stesso potere di un uomo che non è il target della misoginia, dalla quale trae esclusivamente vantaggi. la donna nega la sua oppressione per proteggersi, l'uomo per sfruttarla.
È quindi chiaro il motivo per cui è necessaria una differenziazione tra gli individui che hanno subito e subiscono le due diverse socializzazioni, derivate unicamente dal sesso di nascita. Da una parte l'apprendimento della sottomissione, dall'altro della dominazione.
La misoginia interiorizzata non è equiparabile alla misoginia. la prima è proiettata verso noi stesse e origina sofferenza, la seconda verso un gruppo da opprimere e origina potere. È impossibile scindere un individuo dalla sua socializzazione per queste ragioni.
10 notes
·
View notes
Text
OpenStreetMap per fermare il traffico di ghepardi
ENG version ESP version
Dietro le foto patinate dei cuccioli di ghepardo sui social si nasconde un mondo oscuro. Con meno di 7.000 esemplari in natura, il ghepardo (Acinonyx jubatus) è una delle specie più minacciate al mondo, e il commercio illegale di cuccioli vivi, specialmente nel Corno d'Africa, ne sta decimando le popolazioni. I bracconieri sottraggono i piccoli alle madri mentre queste sono a caccia e li destinano al mercato del lusso come animali da compagnia esotici, a un costo che può arrivare fino a 50.000 dollari per esemplare. Tra il 2020 e il 2023, questo commercio è aumentato del 50%, rappresentando una minaccia concreta alla sopravvivenza della specie.
Ora, però, una nuova metodologia sviluppata da un team di ricerca potrebbe finalmente aiutare a monitorare e interrompere il traffico illegale di ghepardi, con un approccio innovativo a tre livelli. Gli scienziati stanno mappando non solo le rotte di traffico, ma anche le popolazioni di ghepardi non ancora documentate, combinando i modelli di distribuzione delle specie preda, l’idoneità dell’habitat e una rete di traffico basata sui dati di OpenStreetMap.
Il primo passo consiste nel localizzare le prede dei ghepardi, come gazzelle e antilopi, essenziali per la loro sopravvivenza. Per farlo, il team ha utilizzato Maxent, un metodo di apprendimento automatico, per incrociare i dati di presenza delle specie preda con variabili ambientali come clima e copertura del suolo, mappando così le aree più adatte a sostenere i ghepardi. Questo passaggio consente di identificare le zone chiave per la conservazione e, purtroppo, anche quelle più vulnerabili al bracconaggio.
Sulla base di questi dati, i ricercatori hanno sviluppato un Indice di Idoneità dell'Habitat (HSI) specifico per i ghepardi, che evidenzia le aree dove la loro sopravvivenza è maggiormente probabile. Questo modello permette di individuare le aree con le condizioni migliori per ospitare popolazioni stabili e di identificare i luoghi a rischio di traffico, favorendo interventi mirati.
Infine, è stato costruito un modello per comprendere come i trafficanti trasportano i ghepardi dalle aree di origine, spesso remote, fino ai mercati della Penisola Arabica. Integrando i dati di OpenStreetMap su strade, porti e punti di confine, i ricercatori hanno individuato le rotte terrestri e marittime più probabili e i principali punti di transito. Grazie agli strumenti di ottimizzazione delle rotte, sono stati mappati i percorsi più caldi del traffico, permettendo alle forze dell’ordine di pianificare interventi strategici nei punti di passaggio critici, come porti e confini meno sorvegliati.
Questo modello rappresenta una svolta per la conservazione, non solo perché consente di mappare e monitorare le rotte di traffico, ma anche perché ha permesso di identificare ghepardi che finora sfuggivano alle ricerche, dando a scienziati e conservazionisti un quadro più completo della situazione. Grazie a questa scoperta, abbiamo finalmente in mano un sistema che permetterà di proteggere una delle specie più iconiche dell’Africa e di offrire alle comunità locali uno strumento per difendere le proprie risorse naturali.
A Presto e Buona Scienza! fonte
#OpenStreetMap#traffico di ghepardi#conservazione#bracconaggio#Africa#Cuccioli di ghepardo#fauna selvatica#animali esotici#traffico illegale#protezione ambientale#Maxent#monitoraggio della fauna#ricerca scientifica#specie in pericolo#ecosistema#Drops of Science#Scienze Naturali#Notizie#Novità#Animali
0 notes
Link
Il Premio Nobel per la Fisica del 2024 è stato assegnato a John J. Hopfield e Geoffrey E. Hinton «per le scoperte e le invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali».
Hopfield e Hinton hanno preso in prestito sistemi e strumenti dalla fisica per sviluppare i sistemi di apprendimento automatico (“machine learning”) che oggi fanno funzionare alcuni dei più famosi sistemi di intelligenza artificiale. I loro studi hanno permesso di sviluppare soluzioni per trovare andamenti e modelli nei dati, derivando da questi le informazioni. Il lavoro di Hopfield e Hinton è stato quindi fondamentale per sviluppare le tecnologie che fanno funzionare le reti neurali, cioè i sistemi che provano a imitare le nostre capacità di apprendimento e della memoria.
Nei primi tempi dell’informatica, gli algoritmi erano scritti dalle persone e la loro principale utilità era di indicare al sistema che cosa fare nel caso di una determinata circostanza, una indicazione piuttosto semplice riassumibile in: “Se si verifica questo allora fai quello”. Algoritmi, codice e altre variabili determinano il funzionamento di un software, cioè di un programma informatico, come il browser sul quale si è caricata la pagina che state leggendo in questo momento. Un algoritmo può essere definito come una sequenza finita di istruzioni per risolvere un determinato insieme di richieste o per calcolare un risultato.
Ci sono molti ambiti in cui i dati e i “se questo allora quello” da considerare sono tantissimi, una quantità tale da non poter essere gestita con istruzioni scritte a mano: più dati e più variabili portano a più eccezioni da prevedere e indicare al software per dire come comportarsi, ma se le eccezioni sono miliardi il compito non può essere assolto da dieci, cento o mille programmatori.
Questa difficoltà è stata superata con il machine learning (ML), cioè l’attività di apprendimento dei computer tramite i dati. Mette insieme l’informatica con la statistica, con algoritmi che man mano che analizzano i dati trovando andamenti e ripetizioni, sulla base dei quali possono fare previsioni. L’apprendimento può essere supervisionato, cioè basato su una serie di esempi ideali, oppure non supervisionato, in cui è il sistema a trovare i modi in cui organizzare i dati, senza avere specifici obiettivi.
Messa in altri termini: per fare una torta il software tradizionale segue una ricetta con l’elenco degli ingredienti e le istruzioni passo passo, mentre un software basato sul ML impara attraverso degli esempi osservando una grande quantità di torte, sbagliando e riprovando fino a quando non ottiene un risultato in linea con la richiesta iniziale. Per farlo ha bisogno di una rete neurale artificiale, un modello di elaborazione dei dati che si ispira al funzionamento delle reti neurali biologiche, come quelle nel nostro cervello.
Le reti neurali artificiali hanno richiesto decenni per essere sviluppate e perfezionate, con grandi difficoltà legate soprattutto alle ridotte capacità di elaborazione dei computer per buona parte del Novecento. Le cose iniziarono a cambiare nei primi anni Ottanta quando il fisico John Hopfield fissò in un modello matematico i principi per realizzare una rete neurale che simula la nostra capacità di ricordare e di ricostruire le immagini nella nostra mente. Hopfield aveva sviluppato il modello attingendo dalle proprie conoscenze in fisica e in particolare dalle proprietà magnetiche di alcuni materiali che condizionano il comportamento dei loro atomi.
Una rete di Hopfield funziona memorizzando dei modelli, come immagini e schemi, e poi richiamandoli quando riceve un input parziale oppure distorto come un’immagine incompleta o poco definita. Il sistema prova a minimizzare l’energia complessiva, cioè cerca di raggiungere uno stato stabile riducendo il disordine che rende instabile lo stato di partenza della rete. In pratica, quando la rete riceve un’immagine incompleta o rumorosa, “esplora” varie possibili configurazioni per ridurre l’energia complessiva, finché non trova una configurazione che corrisponde a un modello memorizzato, cioè a un’immagine “stabile” e riconoscibile. In questo modo può dire che una certa immagine mai analizzata prima assomiglia a una delle immagini che ha già in memoria.
Negli anni seguenti alla pubblicazione del modello di Hopfield, Geoffrey Hinton lavorò a un sistema che aggiungeva alcuni principi di fisica statistica, cioè quella parte della fisica che utilizza metodi statistici per risolvere problemi. Elaborò la “macchina di Boltzmann”, basata sulla distribuzione che porta il nome del fisico austriaco Ludwig Boltzmann.
La macchina di Boltzmann è un tipo di rete neurale usato per riconoscere particolari schemi nei dati. Per farlo utilizza due tipi di nodi: i nodi visibili, che ricevono l’informazione, e i nodi nascosti, che aiutano a elaborare queste informazioni senza essere visibili direttamente. Questi nodi interagiscono tra loro e influenzano l’energia complessiva della rete.
La rete funziona aggiornando uno alla volta i valori dei nodi, fino a raggiungere uno stato stabile, in cui il comportamento complessivo della rete non cambia più. Ogni possibile configurazione della rete ha una probabilità, determinata dall’energia della rete stessa. In questo modo, la macchina può generare nuovi modelli partendo da ciò che ha imparato. La macchina impara dagli esempi durante il suo allenamento: i valori delle connessioni tra i nodi vengono aggiornati in modo che i modelli presentati abbiano la probabilità più alta di essere ricreati, quindi più un modello viene ripetuto, più aumenta la probabilità che la rete lo ricordi.
Con i loro lavori ispirati alla fisica, Hopfield e Hinton hanno dato un contributo fondamentale allo sviluppo del machine learning, soprattutto negli ultimi 15 anni grazie all’aumentata capacità di calcolo dei processori. A distanza di anni, i grandi progressi partiti dalla fisica potrebbero avere importanti ricadute per la fisica stessa con l’elaborazione di nuovi modelli per effettuare misurazioni più accurate, per esempio escludendo il rumore di fondo nello studio delle onde gravitazionali. Le possibilità di impiego dei sistemi di intelligenza artificiale sono comunque sterminate e toccano praticamente qualsiasi ambito della ricerca.
John J. Hopfield è nato nel 1933 a Chicago, negli Stati Uniti, ed è docente alla Princeton University. Geoffrey E. Hinton è nato nel 1947 a Londra, nel Regno Unito, ed è docente presso l’Università di Toronto in Canada. È stato ricercatore e dirigente di Google, incarico che ha lasciato lo scorso anno sollevando alcune perplessità e preoccupazioni sulla rapida evoluzione di alcuni sistemi di intelligenza artificiale.
0 notes
Text
Reti neurali artificiali e apprendimento automatico vincitori del Nobel della Fisica 2024
Reti neurali artificiali e apprendimento automatico vincitori del Nobel della Fisica 2024 Riconosciuti i contributi alla base dell’intelligenza artificiale, che oggi sta trasformando numerosi ambiti della scienza e della società. Powered by WPeMatico Riconosciuti i contributi alla base dell’intelligenza artificiale, che oggi sta trasformando numerosi ambiti della scienza e della società.…
0 notes
Text
"The Fee Only" ospite a "I Libri di Ale"
Una nuova collaborazione sta nascendo!
Sono emozionato di annunciare l’inizio di una collaborazione entusiasmante con il sito thefeeonly.com! Questa partnership rappresenta una fantastica opportunità per entrambi i team coinvolti. Il team di thefeeonly.com potrà contare sulle mie competenze comunicative e sulla mia abilità nel creare contenuti di alto livello. Offrirò consulenza specializzata in comunicazione efficace, public speaking…
View On WordPress
#apprendimento automatico#big data#blockchain#cybersecurity#ecnologia#informatica#intelligenza artificiale#realtà aumentata#realtà virtuale#robotica#scienza dei dati
0 notes
Text
Le notizie trapelate riguardo alle intenzioni di Baidu, il più importante motore di ricerca cinese, di dotarsi di un sistema analogo a ChatGPT sono solo le ultime che hanno interessato il mondo dei motori di ricerca dopo che il sistema di apprendimento automatico di OpenAI è stato lanciato. Nel corso di questo mese, Microsoft ha rivelato di aver investito 10 miliardi di dollari in OpenAI e di voler aggiungere ChatGPT al suo motore di ricerca Bing. Google ha risposto con Google Sparrow, un altro sistema di apprendimento automatico. Il lancio di ChatGPT ha subito riacceso le discussioni sulla natura di questa presunta intelligenza artificiale, sulle sue possibilità e sui suoi limiti e i nuovi sistemi dei concorrenti le aumenteranno ulteriormente.
0 notes
Text
IA quotidIAna: A Torino, un nuovo ciclo di incontri sull’Intelligenza Artificiale al Circolo dei lettori
Un progetto di Università degli Studi di Torino, Fondazione Circolo dei lettori, Società Italiana per l’Etica dell’Intelligenza Artificiale e Magazine Intelligenza Artificiale MagIA
14 ottobre - Sex, lies and AI; IA oltre la vita
28 ottobre - L'IA proietta luci e ombre sulla medicina?; IA e conflitti13 novembre - L’IA influenzerà le elezioni?; La deriva della tech economy | Utopia o distopia?
Ore 18, Circolo dei lettori, Torino
Torino, 26 settembre 2024. La Fondazione Circolo dei lettori, l’Università degli Studi di Torino, la Società Italiana per l’Etica dell’Intelligenza Artificiale e il Magazine Intelligenza Artificiale MagIA presentanoIA quotidIAna, un nuovo ciclo di tre incontri - ognuno su due temi - per riflettere sul modo in cui sempre più l’IA sia pervadendo la realtà di tutti i giorni, che si terrà al Circolo dei lettori di Torino in Sala Grande il 14 e 28 ottobre e il 13 novembre, coinvolgendo professioniste e professionisti di diverse discipline - giornalisti, antropologi, semiologi, informatici, filosofi…
A due anni dall’avvento di ChatGPT, la chatbot basata sull’Intelligenza Artificiale ad apprendimento automatico sviluppata da OpenAI, questo nuovo assistente digitale potenziato, “interfaccia domestica” che rivela solo alcune delle enormi potenzialità dell’Intelligenza Artificiale, è entrato stabilmente nelle nostre vite. Ma l’IA ha il potere di influenzare o addirittura alterare, non sempre in positivo, innumerevoli aspetti della quotidianità: dalle relazioni sentimentali e sessuali al modo in cui intendiamo l’identità, dall’informazione alla medicina e alla guerra, persino il nostro rapporto con la morte.
“L’intelligenza artificiale ha ormai un impatto innegabile sulla nostra vita quotidiana e in diversi ambiti personali e sociali” dichiarano Marinella Belluati, professoressa di sociologia dei processi culturali e comunicativi presso l’Università degli Studi di Torino, e Guido Boella, vicerettore all’IA di UniTo e co-fondatore di SIpEIA, coordinatori del Magazine Intelligenza Artificiale magia.news. “Nell’ambito affettivo, assistenti virtuali e algoritmi modellano le relazioni e le rappresentazioni, mentre chatbot avanzati imitano le interazioni umane, talvolta creando legami emotivi complessi. Anche rispetto ai temi del benessere e della salute, l’IA svolge un ruolo cruciale nella diagnostica, nel monitoraggio di malattie croniche e nella gestione di stili di vita sani, migliorando l’accesso ai servizi sanitari e la precisione delle cure. Toccando anche il tema della morte e i dibattiti etici sull’immortalità digitale e sulla conservazione dei ricordi attraverso profili virtuali post-mortem. Infine, in ambito dell'influenza politica l'impatto dell'IA sta svelando alcuni effetti nel modo in cui vengono prese e diffuse le informazioni e manipolate le opinioni pubbliche; da qui un acceso dibattito sulla trasparenza e sulla correttezza e sulla fairness. In questo complesso scenario l'IA si sta rivelando uno strumento che accompagna il progresso sfidando l'etica."
Lunedì 14 ottobre, alle ore 18 in Sala Grande, la seconda edizione del ciclo prenderà avvio con l’incontro Sex, lies and AI,un dialogo tra Marco Scarcelli (sociologo dei Media Digitali, Genere e Sessualità, professore presso il Dipartimento di Filosofia, Sociologia, Pedagogia e Psicologia Applicata, Università degli Studi di Padova) e il giornalista Francesco Marino, moderato dalla professoressa di sociologia dei media Marinella Belluati: l'intelligenza artificiale sta assumendo un ruolo sempre crescente anche negli aspetti della sessualità e della vita intima delle relazioni personali, esperti e divulgatori discuteranno delle sfide etiche e della presenza dell'IA nelle dinamiche intime.
L'intelligenza artificiale sta entrando anche nel complesso rapporto con i concetti di vita, morte ed eternità digitale, cambiando il modo in cui affrontiamo il lutto, la sua elaborazione, la memoria dei defunti e la potenziale immortalità. Ne discuteranno nel talk a seguire, IA oltre la vita, Davide Sisto (tanatologo, Università degli Studi di Trieste) e Simona Stano (semiologa, professoressa Associata presso il Dipartimento di Filosofia e Scienze dell’Educazione, Università degli Studi di Torino), con la moderazione di Adriano Favole (professore di Antropologia culturale presso il Dipartimento di Culture, Politica e Società, Università degli Studi di Torino).
La rassegna proseguirà lunedì 28 ottobre alle ore 18, in Sala Grande, con l’incontro L'IA proietta luci e ombre sulla medicina?: l'intelligenza artificiale sta già trasformando il mondo della sanità, quali sono le potenzialità dell’IA nella diagnostica e nelle cure personalizzate? E quali i rischi legati alla privacy, all’etica, alla sicurezza e al controllo umano del sapere medico? Ne discuteranno Fabio Pammolli (professore di Economia e Management al Politecnico di Milano, presidente della Fondazione AI4Industry) e Guido Giustetto (presidente dell’Ordine dei Medici Chirurghi e Odontoiatri di Torino), moderati dal prof. Guido Boella. A seguire, IA e conflitti, durante il quale Francesca Farruggia (sociologa e ricercatrice presso il Dipartimento di Scienze Sociali ed Economiche, Università della Sapienza di Roma) e Serena Danna, vicedirettrice del quotidiano digitale Open, si confronteranno sul ruolo dell'intelligenza artificiale nella gestione delle crisi, nella sicurezza e nella guerra, affrontando le implicazioni etiche e i rischi di una tecnologia sempre più centrale negli scenari geopolitici e nei contesti di conflitto globale.
Il ciclo terminerà mercoledì 13 novembre, sempre alle ore 18 in Sala Grande, con L’IA influenzerà le elezioni?, un confronto tra Fabio Malagnino (giornalista, coordinatore dell’ufficio stampa e direttore della testata giornalistica del Consiglio regionale del Piemonte e responsabile delle politiche di Open Government, cofondatore Fondazione Italia Digitale) e Luca Rinaldi (commissario dell’Autorità per le Garanzie nelle Comunicazioni), moderati da Marinella Belluati, su quale sia l’impatto dell'intelligenza artificiale sui processi elettorali contemporanei, su come possa influenzare il voto, compromettere la sicurezza elettorale e manipolare le informazioni.Il ciclo si conclude con un confronto su La deriva della tech economy: Utopia o distopia? con Azzurra Rinaldi (economista femminista, Ricercatrice presso l'Università UnitelmaSapienza di Roma, dove dirige la School of Gender Economics) e Francesca Coin (sociologa e Docente-ricercatrice RS presso il Centro di competenze lavoro welfare società del dipartimento di Economia aziendale sanità e sociale Deass della Supsi, Svizzera), moderate da Paolo Griseri (giornalista La Stampa), su come le trasformazioni della società guidate dall'innovazione tecnologica aprano prospettive di un futuro sempre più automatizzato, il cui rovescio della medaglia è rappresentato dal rischio di concentrazione del potere, disuguaglianze e perdita di controllo umano. Il dialogo apre una riflessione sul destino della tech economy e il suo impatto sul mondo reale.
Gli appuntamenti di IA quotidIAna sono a ingresso libero, fino a esaurimento posti.
circololettori.it
magia.news
0 notes
Text
AI: Portfolio con Amy Adams
View On WordPress
#2023#amy adams#andrea satta copyright#apprendimento automatico#arte#chatbot#cinema#copyright#disegno#fotografie#IA#immagini generate intelligenza artificiale#intelligenza artificiale#macchine intelligenti#MIDJOUNEY#photoshop#prompt#quadri#ritratto#wonder
0 notes