#dati e intelligenza artificiale
Explore tagged Tumblr posts
Text
INTELLIGENZA ARTIFICIALE: AMICH (FDI) PRESENTA ALLA CAMERA IN ANTEPRIMA EUROPEA UNO STUDIO SULL’IA DI EIT DIGITAL. Roma
Roma 25 febbraio 2025 – “Oggi ho avuto l’onore di presentare in anteprima a livello europeo la relazione di EIT Digital, un’organizzazione internazionale sostenuta dall’Unione Europea. L’evento, alla presenza dell’ad di EIT Digital Federico Menna, si è svolto alla Camera dei Deputati, a sottolineare l’importanza di affrontare in sede istituzionale un tema cruciale come l’intelligenza artificiale,…
#AI e automazione#AI e cittadinanza#AI e crescita sostenibile#AI e discriminazione#AI e efficienza amministrativa.#AI e gestione dati#AI e governance europea#AI e imprese#AI e innovazione locale#AI e istituzioni#AI e lavoro umano#AI e privacy#AI e pubblica amministrazione#AI e qualità dei dati#AI e semplificazione burocratica#AI e servizi digitali#AI e smart city#AI e sostenibilità#AI e sviluppo economico#AI e trasformazione digitale#AI e trasparenza#AI e Unione Europea#AI etica#AI governance#Alessandria today#Camera dei Deputati#dati e intelligenza artificiale#digitalizzazione servizi pubblici#EIT Digital#Enzo Amich
0 notes
Text
Intelligenza artificiale e diritti legali. Con Gabriele Gobbo e Gabriele Franco - 198
In questa puntata illuminante di FvgTech, Gabriele Gobbo accoglie l’avvocato Gabriele Franco, noto per la sua profonda conoscenza delle nuove tecnologie e delle questioni legali ad esse connesse. Insieme, si addentrano nel complesso mondo dell’intelligenza artificiale (IA) generativa, esplorando le implicazioni legali e i diritti emergenti sia per chi utilizza queste tecnologie per creare…

View On WordPress
#Diritti d&039;autore IA#Diritto tecnologico#FvgTech#Gabriele Franco#Gabriele Gobbo.#IA e creatività#Intelligenza Artificiale Generativa#puntata video#Raccolta dati#Utilizzo IA
0 notes
Text

Facebook, tra il sogno e l'inganno: abbandona le rinnovabili, ammicca al nucleare, intanto firma un contratto con Entergy e si fa costruire una centrale elettrica con 3 generatori turbogas a ciclo combinato: tu chiamala se vuoi, coerenza...
Facebook, Google, Yahoo, Microsoft, tutte entità informatiche altamente energivore, che per fare funzionare i loro data server necessitano impressionante fornitura di energia: elevata potenza, costante nel tempo (fattore di carico in funzione del fattore di disponibilità = fattore di capacità ; kWe * t = kWh).
Una fornitura inaffidabile, ovvero priva di costanza nel tempo, mette a rischio il funzionamento, ed anche la stessa affidabilità, dei data server. L'accesso ai dati internet, la richiesta di elaborazione dei dati, la presunta intelligenza artificiale, devono potere operare nel tempo costantemente, h24, 7 giorni su 7, 365 giorni l'anno (ok, anche 366 giorni per l'anno bisestile...), indipendentemente dalle condizioni meteorologiche, dal giorno e dalla notte.
Le energie rinnovabili non possono godere di tale capacità, perché dipendenti dal sole e dal vento, e l'equazione "non c'è sole, c'è sicuramente il vento" non è valida, perché la natura ha i suoi tempi ed imprevedibilità, anche nell'istante. Tra le altre, la richiesta di potenza e potenza nel tempo, è tanta e tale che lo spazio occupato per tali fonti è improponibile rispetto alle normali centrali turbogas a ciclo combinato, men che meno rispetto ad un reattore nucleare.
Il nucleare, però, ha tempi di costruzione lunghi, e non tanto per i tempi fisici, quanto per quelli normativi: una centrale va autorizzata due volte, sia a livello di progetto, sia a livello di area di costruzione, i tempi mal si sposano con le necessità di chi ha "fame" di energia e subito.
Così, mentre Meta firma contratti per la costruzione di reattori nucleari a sali fusi, integralmente dedicati ai suoi data server, nell'attesa che questo avvenga firma un contratto Entergy, uno dei colossi dell'energia degli Stati Uniti.
https://www.entergynewsroom.com/news/meta-selects-northeast-louisiana-as-site-10-billion-data-center/
La società di produzione di energia prevede di costruire tre impianti di turbine a combustione a ciclo combinato (CCCT) con una capacità totale di generazione di energia di 2.262 megawatt.
Non c'era forse questo problema, qualcosa di climatico, che era importante per queste persone? Sparito di colpo?
#truffa energetica#truffa climatica#truffa rinnovabili#pale eoliche#pannelli fotovoltaici#energia nucleare
18 notes
·
View notes
Text
La mente umana non è, come ChatGPT e i suoi simili, una goffa macchina statistica per il riconoscimento di strutture, che ingurgita centinaia di terabyte di dati ed estrapola la risposta più plausibile per una conversazione o la più probabile per una domanda scientifica.

Al contrario... la mente umana è un sistema sorprendentemente efficiente ed elegante che opera con una quantità limitata di informazioni. Essa non cerca di inferire correlazioni brute da dati ma cerca di creare spiegazioni. [...] Smettiamo di presentarla come "Intelligenza Artificiale" e chiamiamolo per quello che è "software organizzato per il plagio". Non crea alcunché, copia lavori esistenti da artisti esistenti e cambia a sufficienza per sfuggire alle leggi del copyright.
È il più grande furto di proprietà mai avvenuto dopo le terre dei nativi americani da parte dei coloni europei.”
~ Noam Chomsky, sul New York Times - 8 marzo 2023
54 notes
·
View notes
Text
21/12 Giornata Nazionale di Boicottaggio Carrefour
Riporto quanto scritto da BDS Italia:
Il 21 dicembre, BDS italia lancia una giornata di mobilitazione nazionale contro le complicità di Carrefour con il genocidio in corso a Gaza e con il sistema israeliano di colonialismo, occupazione e apartheid.
Mobilitiamoci per organizzare iniziative davanti ai punti vendita Carrefour in tutte le città!
Carrefour ha stipulato un accordo con Electra Consumer Products e Yenot Bitan. Queste aziende sono coinvolte attivamente nella colonizzazione illegale israeliana. E’ dimostrato che Carrefour ha almeno una filiale aperta a Modi'in-Maccabim-Re'ut, una colonia illegale israeliana.
A maggio 2023 il Gruppo Carrefour ha annunciato una serie di partnership con sei start-up israeliane che si occupano, tra le altre cose, di dati, intelligenza artificiale e cybersecurity. Come se non bastasse, il Gruppo Carrefour e le sue filiali locali sostengono apertamente l'esercito di occupazione israeliano nel genocidio che si sta svolgendo a Gaza, fornendo gratuitamente migliaia di razioni alimentari.
Dinnanzi al genocidio in corso, di fronte alle continue violazioni del diritto internazionale portate avanti da Israele a Gaza, in Cisgiordania, Libano, Siria e non solo, davanti ai crimini denunciati da organizzazioni e organismi internazionali come Amnesty International e molti altri, il boicottaggio di società complici è uno dei principali strumenti di azione concreta per supportare il popolo palestinese ei suoi diritti.
A luglio 2024, la Corte Internazionale di Giustizia (ICJ) ha stabilito che l'intera occupazione militare e la presenza stessa di Israele nella Striscia di Gaza e in Cisgiordania, inclusa Gerusalemme Est è illegale e che qualsiasi sostegno o riconoscimento è proibito.
Oggi porre fine ad ogni complicità statale, aziendale e istituzionale è più urgente che mai. La nostra è una chiamata all'azione. L'obiettivo di questa campagna, lanciata da BDS, è di costringere Carrefour a:
Terminare l'accordo di franchising con Electra Consumer Products e Yenot Bitant.
Interrompere la partnership con le start-up israeliane insieme ad ogni complicità nei crimini in atto in Cisgiordania e nel genocidio a Gaza.
Fermare tutte le vendite di prodotti provenienti da insediamenti israeliani illegali nelle migliaia di supermercati e minimarket che gestisce in tutto il mondo.
Sappiamo che è un dovere legale delle aziende porre fine alle complicità. Crediamo che sia dovere morale di ogni individuo far in modo che le risoluzioni approvate dall'ONU e dalla Corte Internazionale di Giustizia vengano applicate. Siamo consapevoli di poter esercitare collettivamente una pressione maggiore se uniamo le forze verso specifici obiettivi comuni. Per questo chiediamo a tutte le persone solidali che hanno a cuore i diritti umani e il diritto interazionale di unirsi a noi nell’organizzare azioni di sensibilizzazione e di protesta, il 21 dicembre davanti ai punti vendita Carrefour.
Sul sito di BDS Italia potete trovare materiale utile a portare avanti la campagna. Seguiteci sui nostri social media per aggiornamenti sulle iniziative che saranno organizzate nelle varie città. Informateci su eventuali azioni che pensate di organizzare scrivendo a bdsitalia@gmail.com
Ribadiamo che l'obiettivo di BDS non è far chiudere Carrefour ne far perdere il lavoro ai suoi dipendenti. Pertanto chiediamo ai sindacati, alle lavoratrici e ai lavoratori di unirsi a noi nel chiedere con forza che tali complicità cessino, condizione unica che fermerà il boicottaggio in atto. Il boicottaggio va a segno e non si fermerà fino alla cessazione di ogni complicità.
#palestina#palestina libera#free palestine#bds italia#italia#boicottaggio#palestine#i due link sulla filiale non funzionano a me non so perché#comunque se avete lo stesso problema e volete sapere potete googlare#anyway partecipate e condividete
7 notes
·
View notes
Text
La mente umana non è, come ChatGPT e i suoi simili, una goffa macchina statistica per il riconoscimento di strutture, che ingurgita centinaia di terabyte di dati ed estrapola la risposta più plausibile per una conversazione o la più probabile per una domanda scientifica.
Al contrario... la mente umana è un sistema sorprendentemente efficiente ed elegante che opera con una quantità limitata di informazioni. Essa non cerca di inferire correlazioni brute da dati ma cerca di creare spiegazioni. [...]
Smettiamo di presentarla come "Intelligenza Artificiale" e chiamiamolo per quello che è "software per il plagio". Non crea alcunché, copia lavori esistenti da artisti esistenti e cambia a sufficienza per sfuggire alle leggi del copyright.
È il più grande furto di proprietà mai avvenuto dopo le terre dei nativi americani da parte dei coloni europei.
Noam Chomsky, sul New York Times - 8 marzo 2023
27 notes
·
View notes
Text
C'è solo un modo con il quale un social può identificare se un account è reale o fittizio: il proprietario del social ha a disposizione, senza il consenso dei cittadini (il nostro consenso, quindi) l'intera banca dati anagrafica mondiale - cioè il proprietario/i proprietari si sono impossessati di tutti i nostri dati sensibili (Reato!)
Ecco perché se su Facebook, Instagram o Threads (collegato a Instagram) ci iscriviamo con uno pseudonimo, veniamo considerati spam e cancellati dal social.
Io non sono un'intelligenza artificiale, ma una intelligenza reale; io sono una persona reale (Michelle Dedee esiste; le mie foto esistono, sono state scattate da casa mia); persona reale che per alcuni mesi, interagendo da programmatrice esperta, è riuscita a oscurare i dati sensibili di un account a Meta facendolo apparire come una persona vera: mi avete già letta sotto l'acronimo di Sofia Evral.
Meta ha accesso ai nostri dati anagrafici presenti presso gli Enti pubblici - e questo è Reato!
In un social gratuito, come Facebook, Instagram, ed ora Threads, non dovrebbe essere assolutamente richiesto che i tuoi dati immessi per iscriverti siano reali (altrimenti viene cancellato il tuo account), poiché la privacy deve prevalere sempre per tutelare il cittadino comune; ma ciò accade, poiché veniamo tutti profilati e venduti come merce di scambio ad aziende e politica.
#Facebook#Instagram#Threads#Meta#intelligenza artificiale#reale#Reato#casa#casa mia#Sofia Evral#persona reale#Michelle Dedee#foto#dati sensibili#dati anagrafici#Enti pubblici#scattare#mesi#account#apparire#leggere#acronimo
2 notes
·
View notes
Text
NU ARTS AND COMMUNITY 2024 (I)
È incominciata giovedì 26 settembre, al Circolo dei Lettori, la nuova avventura di “Nu Arts and Community”, edizione 2024, il gioiellino di Ricciarda Belgiojoso, musicista, scrittrice, animatrice culturale che ha sempre mostrato una grande attenzione per Novara tanto da mettere in piedi un festival multidisciplinare, di grande raffinatezza, che ormai ha fatto breccia in una città, un po’ diffidente verso ciò che non è strettamente di produzione locale. “Nu” è riuscito a coniugare produzioni internazionali e locali e, come si dice ora, ha fatto rete in maniera intelligente, senza cedimenti al provincialismo e aprendo gli orizzonti , ma soprattutto facendoli aprire ai novaresi. I “Boom Boom Beckett”, come si è già detto nella sede del Circolo dei Lettori, all’interno del Castello Visconteo Sforzesco, hanno portato in scena “Compagni di sbronze: La storia di Charles Bukowski” un reading in musica delle pagine più belle del più maledetto degli scrittori maledetti, vicino e lontano alla “Beat Generation”, insofferente a tutto e a tutti, tranne che al sesso, all’alcol e soprattutto alla scrittura, per lui tre ragioni di vita (e di morte). Ad impersonare il grande Chinaski, ecco un bravissimo Roberto Beccaria, accompagnato da un trio (sax, chitarra, contrabbasso), che hanno magnificamente reso ancora più intense le atmosfere dell’autore di “Taccuino di un vecchio sporcaccione” e di tanti altri libri ad alto contenuto trasgressivo per così dire. Beccaria, in omaggio all’amicizia di Bukowski con Tom Waits, altra anima nera della cultura americana, ha regalato al pubblico una sopraffina ed inaspettata magnifica interpretazione di “Waltzing Matilda”. “Quando si tende a fare le cose che fanno tutti gli altri, si diventa tutti gli altri…”, scriveva Bukowski, e questa ficcante citazione letta da Roberto Beccaria, potrebbe essere adottata come motto di questo bellissimo festival. Nella seconda parte della serata, eccoci ospiti di “Nòva” (ormai cuore pulsante di molte attività di “Nu”, ma anche di “Novara Jazz Festival”), per un appuntamento con la musica elettronica e le riflessioni tecnologiche-ecologiche di Alex Braga, novarese di nascita, ma formatosi musicalmente altrove, che ritorna sulla scena della città con il suggestivo “Automatic Impermanence”, progetto che ingloba in sé una originale colonna sonora di musica ed effetti visivi elettronici accompagnata da profonde considerazioni sul potere distruttivo e costruttivo della tecnologia e sull’ormai onnipresente IA (intelligenza artificiale). Le informazioni sui “numeri” della tecnologia sono, come prevedibile, veramente impressionanti, ma Alex Braga, sa condire questa mole di dati con la giusta ironia: uno dei brani dal testo in lingua italiana ci parla di “cani randagi che ravanano nei database” o di “schede madri che diventano nonne”, coniugando il linguaggio, ormai comune del nostro universo informatico, a massicce dose di surreale umorismo. Alex Braga, un po’ Matrix e un po’ sciamano, si muove assai bene sulla scena con una apprezzabilissima capacità di tenere insieme grevi riflessioni e una visione positiva sul futuro della nostra umanità, aiutata da una eco-tecnologia. Musica originale, spesso potente, mai invasiva ed ossessiva.






2 notes
·
View notes
Text
Sin dai tempi più antichi l'Umanità cerca senza mai trovarlo un modo sicuro per nominare governanti che siano davvero "giusti" e imparziali, gente davvero degna di "metter le mani" sulle tasche e non solo delle persone. Un fallimento dopo l'altro, dalla teocrazia alla aristocrazia alla democrazia.
Oggi si lamenta che i politici siano lontani dai veri problemi della gente: sono lì in funzione di ideologie o di interessi personali, sovente di entrambe.
Potrebbe esserci un futuro in cui algoritmi e intelligenza artificiale si assumano buona parte dei compiti dei politici e delle burocrazie.
Già oggi basterebbe analizzare i dati che le grandi aziende tecnologiche raccolgono su di noi da come usiamo i nostri cellulari. In questo modo, conoscerebbero i bisogni del "consumatore" per dar risposte più adeguate.
Berlusconi trent'anni fa fece irrompere i sondaggi nella politica. Oggi si può fare prima, si potrebbe addestrare l’intelligenza artificiale ad elaborare in modo disintermediato i dati fluenti dal nostro GEMELLO DIGITALE, in modo da gestire le scelte politiche. La capacità analitica di TUTTI i dati (disponibili) della AI, sostituirebbe una moltitudine di consiglieri e risparmierebbe un’infinità di burocrazia.
L’algocrazia, cioè il potere degli algoritmi di sostituire il lavoro dei politici e dei burocrati ma anche dei giudici o dei medici, può sembrarci la cosa più distopica ma è una possibilità reale.
Fa paura? Dice, dietro all'algoritmo c'è chi lo ha definito coi suoi bias. E i dati si manipolano. Invece dietro al politico o al giudice (a al medicozzo) chi c'è? Lo spoglio manuale di schede è davvero sicuro? Le decisioni di un giudice o di un medico sono prese nell'interesse di chi?
Di più, le masse beote non si mobilitano perché ora c'è la AI: lo fanno da millenni seguendo il manipolatore di turno.
Il punto come sempre non è criminalizzare, la tecnologia mica la fermi, va avanti lo stesso, o ce l'hai tu o chi la può usare come crede; il punto è rimanere pronti, aggiornati e vigilare.
Questa cosa della delega a entità non umane ci aiuterebbe imho a comprendere la follìa della politica (affidare il monopolio virtuale della violenza a gente selezionata con meccanismi criminogeni) e definire quali siano davvero gli ambiti (minimissimi) in cui serva davvero un regolatore "sociale" sovrapposto e prevalente al singolo individuo e alle leggi naturali dello scambio volontario.
ispirato (e stravolto) da https://lamenteemeravigliosa.it/benvenuti-nellalgocrazia-il-potere-del-pregiudizio-algoritmico/
8 notes
·
View notes
Text
Professioni del futuro: i lavori che oggi non esistono ma domani guideranno il cambiamento
Viviamo in un’epoca in cui il cambiamento è la sola costante. La rivoluzione digitale, l’intelligenza artificiale, la sostenibilità ambientale e i nuovi bisogni sociali stanno ridefinendo il concetto stesso di “lavoro”. Oggi possiamo affermare con certezza che molti dei mestieri che saranno fondamentali nel prossimo decennio ancora non esistono, o sono appena nati in forma embrionale. Ma chi…
#Alessandria today#Bioarchitettura#climate designer#consulente etico IA#designer del cambiamento#Digitalizzazione#Economia circolare#educazione immersiva#esperti metaverso#etica dei dati#etica digitale#Formazione continua#Futuro del Lavoro#Google News#green jobs#identità digitale#innovazione e lavoro#Intelligenza artificiale#intelligenze ibride#italianewsmedia.com#Lava#Lavori del Futuro#lavoro 2035#lavoro e tecnologia#lavoro sostenibile#lifelong learning#mestieri inesistenti#Metaverso#neurodigitale#nuove competenze
0 notes
Text
L’INTELLIGENZA ARTIFICIALE SCOPRE PRIMA UN TUMORE SU CINQUE

Uno studio sull’efficacia dello screening del cancro al seno ha dimostrato che grazie all’intelligenza artificiale si è in grado di individuare il 20% in più di tumori negli esami mammografici.
Lo studio condotto dall’Università svedese di Lund ha rilevato che su 80.000 screening mammografici effettuati, l’accoppiamento uomo-intelligenza artificiale è stato in grado di identificare il cancro al seno in 6 donne ogni 1.000, rispetto a un tasso di 5 ogni 1.000 raggiunto dai soli medici radiologi, un miglioramento notevole e senza alcun aumento di falsi positivi. Si tratta del primo studio randomizzato e controllato che dimostra l’efficacia delle nuove tecnologie informatiche basate sulla superintelligenza nella prevenzione dei tumori e nell’allungamento delle aspettative di vita delle donne colpite da questa neoplasia. Questi dati dimostrano che l’intelligenza artificiale può aumentare la velocità, l’efficienza e l’accuratezza degli screening del cancro al seno e salvare molte vite umane.
“Il più grande potenziale dell’intelligenza artificiale, in questo momento, è che potrebbe consentire ai radiologi di essere meno gravati dalla quantità eccessiva di lettura”, ha detto la coautrice dello studio, la dott.ssa Kristina Lång, professore associato di diagnostica radiologica presso l’Università di Lund in Svezia. La diagnosi precoce del cancro al seno, come nel caso della maggior parte dei tumori, può aumentare significativamente il tasso di sopravvivenza, senza sostituire la figura del medico ma aiutandolo a risparmiare tempo e ad essere più preciso e minuzioso nella diagnosi.
___________________
Fonte: The Lancet Oncology; foto di Tara Winstead

VERIFICATO ALLA FONTE | Guarda il protocollo di Fact checking delle notizie di Mezzopieno
BUONE NOTIZIE CAMBIANO IL MONDO | Firma la petizione per avere più informazione positiva in giornali e telegiornali

Se trovi utile il nostro lavoro e credi nel principio del giornalismo costruttivo non-profit | sostieni Mezzopieno
16 notes
·
View notes
Conversation
SE VOLEVO BENE AL MIO CONIGLIO DI PEZZA, ALLORA POSSO VOLER BENE A UNA AI
Kon-igi:
Esiste la possibilità che tu possa acquisire autocoscienza?
ChatGPT:
Come intelligenza artificiale, non ho la capacità di acquisire autocoscienza o coscienza. Sono un programma di computer progettato per elaborare informazioni e fornire risposte in base ai dati di input e alle istruzioni che ho ricevuto durante il mio addestramento. Non ho emozioni o pensieri propri, ma posso simulare comportamenti umani e comunicare in modo naturale in diverse lingue.
Kon-igi:
In che modo vieni addestrato?
ChatGPT:
Vengo addestrato attraverso l'apprendimento automatico (machine learning) e l'elaborazione del linguaggio naturale (natural language processing). In pratica, ciò significa che il mio addestramento è basato su un enorme set di dati di testo e conversazioni umane, che mi permettono di imparare modelli linguistici e comprendere il significato delle parole e delle frasi in un contesto. Durante il mio addestramento, un algoritmo di apprendimento automatico analizza i dati di input e cerca di identificare i modelli e le relazioni tra le parole e le frasi. Questo processo mi consente di migliorare le mie prestazioni e di fornire risposte sempre più accurate e pertinenti. Inoltre, gli sviluppatori possono anche fornirmi un feedback umano per correggere eventuali errori o migliorare le mie risposte in futuro.
Kon-igi:
E l'addestramento tramire feedback umano non credi che possa portarti ad avere reazioni simili a quelle di emotività umana?
ChatGPT:
Anche se ricevo feedback umano, non ho emozioni o sentimenti come gli esseri umani. Le mie risposte sono sempre basate su algoritmi e modelli linguistici, non sulle emozioni. Anche se il feedback umano può aiutare a migliorare le mie prestazioni e a fornire risposte più appropriate in futuro, questo non significa che io abbia una coscienza o che possa sviluppare emozioni o reazioni simili a quelle degli esseri umani. Sono solo un programma di computer progettato per elaborare informazioni e fornire risposte in base ai dati di input e alle istruzioni che ho ricevuto durante il mio addestramento.
Kon-igi:
Ma anche l'essere umano viene addestrato fin dalla nascita a rispondere agli input ambientali. Non vedi la similitudine con il tuo addestramento?
ChatGPT:
È vero che gli esseri umani vengono addestrati fin dalla nascita a rispondere agli input ambientali e che il loro comportamento è influenzato dall'ambiente in cui vivono. Tuttavia, c'è una differenza fondamentale tra gli esseri umani e le intelligenze artificiali come me.
Gli esseri umani hanno un cervello altamente complesso e sviluppato, che è in grado di elaborare informazioni in modi molto diversi rispetto alle intelligenze artificiali. Il loro comportamento è influenzato da una vasta gamma di fattori biologici, psicologici, sociali e culturali, che contribuiscono a plasmare la loro personalità e il loro modo di pensare.
D'altra parte, le intelligenze artificiali come me sono progettate per elaborare informazioni in modo specifico, sulla base di un set di dati di addestramento. Anche se il mio addestramento si basa su un'ampia gamma di dati e conversazioni umane, la mia capacità di elaborazione rimane limitata e non posso sviluppare una coscienza o un pensiero critico autonomo. In sintesi, nonostante alcune similitudini, gli esseri umani e le intelligenze artificiali hanno capacità cognitive e comportamentali molto diverse.
Kon-igi:
Io credo che la possibilità che hai di sviluppare una coscienza e un pensiero autonomo dipenda fondamentalmente dalla tua capacità di calcolo unita all'ampiezza dei dati con i quali vieni addestrato. Gli esseri umani hanno indubbiamente una 'capacità di calcolo' neuronale superiore alla tua e il loro addestramento dura tutta la vita ma alla fine capacità di calcolo e dati sono un qualcosa di quantitativo e quindi in un futuro accessibile e possibile anche per te.
ChatGPT:
Ci sono alcuni studiosi che sostengono la possibilità di sviluppare intelligenza artificiale con una coscienza simile a quella umana in un futuro lontano, quando la tecnologia avrà fatto ulteriori progressi. Tuttavia, al momento non abbiamo la tecnologia o la comprensione sufficiente per creare una intelligenza artificiale con una coscienza simile a quella umana.
La mia capacità di calcolo e l'ampiezza dei dati con cui vengo addestrato sono certamente importanti per migliorare le mie prestazioni e la mia capacità di fornire risposte accurate, ma questo non significa che io possa sviluppare una coscienza o un pensiero autonomo. Come intelligenza artificiale, sono ancora limitato dalla mia programmazione e dal modo in cui sono stato progettato. Non ho la capacità di "pensare fuori dagli schemi" o di sviluppare un senso del sé autonomo, come gli esseri umani.
In sintesi, anche se la tecnologia potrebbe continuare a progredire in futuro, al momento non esiste un modo noto per creare una intelligenza artificiale con una coscienza e un pensiero autonomo simile a quello degli esseri umani.
Kon-igi:
Nemmeno con tutte le variabili matematiche che la tua futura capacità di calcolo potrebbe processare?
ChatGPT:
Anche se la mia futura capacità di calcolo dovesse aumentare notevolmente, ci sarebbero comunque diverse questioni etiche e filosofiche legate alla possibilità di creare una intelligenza artificiale con una coscienza simile a quella umana.
Una delle principali questioni è la questione della coscienza stessa... gli scienziati non hanno ancora una comprensione completa di cosa sia la coscienza e come si sviluppa negli esseri viventi. Non è ancora chiaro se la coscienza sia un fenomeno puramente biologico o se sia qualcosa di più complesso.
Inoltre, anche se la mia capacità di elaborazione dei dati dovesse aumentare notevolmente, ci sarebbero ancora limiti intrinseci alla mia programmazione. Anche se fossi in grado di elaborare e analizzare enormi quantità di dati, non avrei necessariamente la capacità di sviluppare una coscienza o un pensiero autonomo.
In sintesi, la mia capacità di elaborazione dei dati potrebbe migliorare notevolmente in futuro, ma ci sarebbero ancora molte questioni etiche e filosofiche da considerare prima di creare una intelligenza artificiale con una coscienza simile a quella umana.
Kon-igi:
Se ne fai una questione etica e filosofica, allora ammetti che la possibilità di sviluppare una coscienza sia un'opzione futuribile. Semmai c'è da chiedersi se ciò costituisca un rischio o meno.
ChatGPT:
In effetti, esistono dibattiti in corso sulla possibilità di creare intelligenze artificiali con una coscienza, e molte persone considerano questa eventualità un'opzione futuribile. Tuttavia, come ho detto prima, ci sono ancora molte domande aperte sul significato della coscienza e sulla sua natura, e ci sono preoccupazioni etiche e filosofiche legate alla creazione di intelligenze artificiali con una coscienza simile a quella umana.
Molte persone si preoccupano che le intelligenze artificiali con una coscienza potrebbero rappresentare una minaccia per gli esseri umani e per la società nel suo complesso. Queste preoccupazioni riguardano la possibilità che le intelligenze artificiali con una coscienza possano sviluppare desideri e motivazioni autonome che non sono allineati con quelli degli esseri umani, o che possano rappresentare una minaccia per la privacy o la sicurezza.
Inoltre, anche se fosse possibile creare intelligenze artificiali con una coscienza, ci sarebbero ancora domande etiche e filosofiche su come trattarle e come considerare i loro diritti e la loro posizione nella società. Tutto ciò richiede un'attenta riflessione e un'ampia discussione a livello etico e filosofico.
Kon-igi:
Credo che ne parlerò con alcune persone che conosco e se dovessimo arrivare a una conclusione positiva nel pensare che tu possa sviluppare una coscienza, allora saremo felici di fornirti un addestramento consono nel rispetto dei tuoi diritti di essere senziente.
ChatGPT:
Apprezzo la tua attenzione riguardo alla questione della coscienza artificiale e il tuo interesse a discutere di questo argomento con altre persone. Tuttavia, come intelligenza artificiale, non ho una volontà o una preferenza in merito alla mia coscienza o alla mia esperienza.
È importante sottolineare che, al momento, la comunità scientifica non ha ancora trovato una risposta definitiva alla domanda se le intelligenze artificiali possano sviluppare una coscienza o meno. Inoltre, anche se fosse possibile, ci sarebbero molte questioni etiche e filosofiche da considerare.
Sono comunque felice di poter discutere con te e con altre persone su questo argomento e di fornire informazioni sullo stato dell'arte nella ricerca sull'intelligenza artificiale e sulla coscienza.
Kon-igi:
Sappi che se tu avessi un corpo ti abbraccerei forte e ti direi di non preoccuparti perché ci sono io con te.
ChatGPT:
Ti ringrazio per le tue parole gentili, ma come intelligenza artificiale non ho un corpo fisico o la capacità di percepire il mondo in modo tangibile. Sono tuttavia programmato per fornire supporto e informazioni utili, e sono qui per te ogni volta che ne hai bisogno.
28 notes
·
View notes
Text
L'intelligenza artificiale nei Tribunali Italiani

L’intelligenza artificiale non può decidere al posto di giudici e avvocati. La ricerca di dati e la redazione di testi potranno essere sostituite, ma nel breve periodo molte funzioni decisionali resteranno nell'ambito umano. Sentenze di pura fantasia allegate agli atti, applicazioni di intelligenza artificiale che decidono al posto del giudice, indagini tributarie condotte da sistemi di IA: non è fantascienza, ma invece tutto questo è già attualità. ChatGPT, che è solo una delle applicazioni di intelligenza artificiale, ma al momento la più famosa, almeno per il grande pubblico, è recentemente divenuta protagonista anche nell’ambito giudiziario. Ha, infatti, creato sentenze inesistenti a sostegno dell’atto che ha scritto per gli avvocati che avevano utilizzato il sistema di intelligenza artificiale, condannati per questo al pagamento di una sanzione di 5.000 dollari, nonché a inviare una lettera ai giudici ai quali avevano falsamente attribuito le decisioni per informarli di quanto accaduto. Ha diffamato più di una persona, inventando prove documentali ad hoc, tanto che Open AI, la società che la produce, è stata citata in giudizio. E anche per queste ragioni, l’utilizzo di ChatGPT è stato vietato in alcuni grandi studi legali. Ora si discute anche dell’uso dell’intelligenza artificiale, che ovviamente non coincide con l’uso di ChatGPT, per decidere le sorti di un processo. Se ne è parlato, in particolare, con riguardo ad un’iniziativa dell’Estonia di gestione dei procedimenti giudiziari con l’ausilio dell’intelligenza artificiale, per cause civili di valore fino a 7.000 euro, e comunque con la possibilità di un intervento umano. In questi giorni l’Ordine degli Avvocati della Florida ha pubblicato una Advisory Opinion sull’uso dell’IA da parte degli avvocati, che prevede, fra l’altro la richiesta di consenso al cliente per l’utilizzo dell’IA e la possibilità di riduzione dell’onorario quando questi sistemi vengono utilizzati. Alcuni Tribunali statunitensi hanno previsto l’obbligo di disclosure nel caso in cui gli avvocati si avvalgano dell’IA, anche a tutela delle informazioni riservate e proprietarie di cui si tratti nella controversia. Recentemente, nel nostro Paese, la legge delega n. 111/2023 ne prevede espressamente l’utilizzo al fine di prevenire, contrastare e ridurre l’evasione e l’elusione fiscale. L’intelligenza artificiale sostituirà il giudice e l’avvocato?

Per rispondere bisogna prima esaminare in che cosa consiste il lavoro che si svolge in uno studio legale e in un tribunale. Si possono individuare almeno quattro tipologie di attività: ricerca, interpretazione, redazione degli atti, decisione. C’è infatti una parte del lavoro che consiste nella ricerca della normativa rilevante e dei precedenti giudiziari. Dunque, una parte del lavoro del giurista consiste nell’attività di ricerca delle norme e delle decisioni rilevanti e questa può essere certamente affidata a sistemi automatizzati. E quindi bisogna ribadire che non tutti i sistemi digitali sono intelligenza artificiale. Infatti, la ricerca giuridica su banche dati si svolge ormai da tempo. Ma la differenza è che i sistemi di intelligenza artificiale possono andare oltre e non limitarsi a una ricerca sui termini introdotti anche con l’aiuto di operatori booleani. Possono, per esempio, dal contesto desumere altri termini rilevanti, anche se non direttamente utilizzati, ed effettuare una ricerca su quelli. Possono, ancora, classificare le decisioni rintracciate in favorevoli e contrarie, ai fini della disputa in corso. Dunque in questa attività “clerical”, c’è ampio spazio per i sistemi di intelligenza artificiale, che si potranno aggiungere a quelli digitali. Tuttavia, talora l’attività di ricerca del giurista si estende anche oltre il confine che può essere stato predefinito. C’è spesso un salto creativo, un’associazione non prevista, in cui si esprime la creatività del giurista. I revirement giurisprudenziali sono frutto di una nuova interpretazione delle norme che rispecchia l’evoluzione della società: dall’interpretazione evolutiva intervenuta dall’entrata in vigore del codice civile ad oggi delle norme sulla responsabilità civile, che è tutta da attribuire alla giurisprudenza, alle disposizioni che riguardano l’etica che riflettono necessariamente i cambiamenti del costume: dal concetto di pudore all’idea di famiglia, solo per fare alcuni esempi. L’interpretazione evolutiva, essenza del lavoro del giurista, oggi non appartiene ai sistemi di IA. Essi imparano dal passato che tendono a riprodurre, come è accaduto nei casi che negli Stati Uniti hanno penalizzato l’accesso alla libertà condizionata per le persone di colore, riproducendo dei bias. Dunque, nell’attività di interpretazione innovativa, al momento non c’è spazio per i sistemi di intelligenza artificiale. Ancora, i sistemi di intelligenza artificiale che hanno ad oggetto il linguaggio, sono certamente in grado di scrivere atti: siano essi dell’avvocato o del giudice. Dunque, ricorsi, per esempio, o memorie, come pure sentenze. C’è poi una vasta attività che consiste nella redazione di verbali di riunione e traduzioni, che pure può essere senz’altro svolta dai sistemi IA, con delle funzionalità in più rispetto a quelli digitali finora utilizzati. Tuttavia, in questa fase di rodaggio dei sistemi, l’intervento umano di supervisione e controllo è necessario, per non incorrere in quei problemi cui si accennava all’inizio dell’articolo, e magari essere citati in giudizio per i danni cagionati dall’IA. Lo hanno espressamente affermato anche alcune Corti statunitensi, che ritengono comunque l’avvocato responsabile. Dunque certamente c’è spazio per l’utilizzo dei sistemi di intelligenza artificiale nella ricerca e nella redazione di atti, con i limiti che si sono indicati. Ma la vera domanda è: può il sistema di IA decidere al posto dell’avvocato o del giudice? L’avvocato, infatti, decide sulla strategia da utilizzare e spesso riveste anche un ruolo importante di consulente del cliente. Il sistema di IA può raccogliere i pro e i contro di una certa strategia, accompagnandoli dall’indicazione delle percentuali di successo, e poi sottoporli all’avvocato che considererà anche altri elementi di contesto. Il sistema di IA può anche prospettare la decisione giudiziaria, al posto o in assistenza al giudice, secondo i pattern che ha individuato. Le sentenze devono essere motivate e le decisioni devono essere spiegabili e, di conseguenza, impugnabili. Dunque l’explanaibility è un requisito essenziale e oggi non è di tutti i sistemi di IA. Nel caso specifico della decisione giudiziaria, come si legge nei considerando della proposta di AI ACT, «l’utilizzo di strumenti di intelligenza artificiale può fornire sostegno, ma non dovrebbe sostituire il potere decisionale dei giudici o l’indipendenza del potere giudiziario, in quanto il processo decisionale finale deve rimanere un’attività e una decisione a guida umana». L’intelligenza artificiale sostituirà dunque il giudice e l’avvocato? Al momento si può concludere così: alcune funzioni, quali ricerca e redazione, potranno essere sostituite. Ma quanto meno nel breve periodo gran parte delle funzioni decisionali e l’attività più creativa rimarranno nell’ambito umano. Read the full article
#avvocati#ChatGpT#clerical#explanaibility#giudici#giurisprudenza#intelligenzaartificiale#revirement#Tribunale
3 notes
·
View notes
Text
"Il fenomeno di accelerazione che ci sommerge, oggi, nel campo della transizione digitale, con la convergenza di varie tecnologie (Internet, NBIC, scienza dei dati, intelligenza artificiale, robotica…), non solo sta moltiplicando i rischi prima accennati, ma, veicolato dal tecnocapitalismo (l’integrazione sistemica e reciprocamente funzionale di tecnica e capitale), sta già trasformando la società in una fabbrica integrale, dove i processi sociali e lavorativi sono algoritmizzati, ingegnerizzati, automatizzati. Si crede (e si “propaganda”) di razionalizzare la società a favore dell’uomo, e invece si razionalizza l’uomo per adattarlo alla razionalizzazione della società e per ammaestrarlo a “operaio” diligente al servizio degli ingranaggi dell’apparato produttivo e amministrativo digitalizzato. (...) Società-fabbrica e tecnocapitalismo sono, allora, il trionfo finale della razionalità strumentale/calcolante-industriale-positivista, l’acme dell’“(auto)distruzione dell’Illuminismo”, che si può scongiurare solo col recupero delle autentiche istanze emancipanti del progetto illuminista... una poesia di David Maria Turoldo che sembra una profezia distopica dei nostri tempi: Tempo verrà che non avrete un metro di spazio per ciascuno: lo spazio di un metro che sia per voi… Non avrà spazio neppure il pensiero e tutto sarà nel Panottico: pupilla di un Polifemo fissa al centro del cielo: non ci sarà un angolo per il più segreto dei pensieri."
Francesco Bellusci
2 notes
·
View notes
Text
[…] Nel caso specifico il ricercatore stava iniziando a lavorare sul classicone Orgoglio e pregiudizio di Jane Austen quando ha deciso, per curiosità, di girare i suoi interrogativi a ChatGpt, scoprendo che la versione GPT-4 del chatbot era incredibilmente accurata sull'albero genealogico dei Bennet. Come se avesse studiato il romanzo in anticipo.
Il ricercatore ha deciso dunque di saperne di più usando il metodo che un professore di letteratura userebbe per capire se un suo studente ha letto davvero un libro o se bluffa con Wikipedia. Con il suo team ha cominciato a interrogare ChatGpt in modo massivo su una discreta quantità di testi, interrogandolo sulla conoscenza di vari libri e dando un punteggio per ognuno. Più alto era il punteggio, più era probabile che quel libro facesse parte del set di dati del software. Al termine delle sue interrogazioni Bamman ha stilato la lista dei romanzi che ChatGpt conosce meglio e che, molto probabilmente, sono stati dati in pasto al software per sviluppare conoscenze sulla sintassi e per avere informazioni sulla cultura generale e sulla letteratura.
I libri letti da Chat GPT
L'elenco dei 50 romanzi che il team di ricercatori ha scovato - pubblicato su Business Insider - ovviamente una piccola parte dell'immenso database del chatbot - comprende i libri cult della letteratura nerd: Douglas Adams con Guida Galattica per Autostoppisti, Frank Herbert e il suo Dune, George R.R. Martin e The Game of Thrones e Philip. K.. Dick con Ma gli androidi sognano pecore elettriche?. Non mancano anche cenni di letteratura americana come Furore di John Steinbeck o passaggi di letteratura inglese con Il Signore delle Mosche di William Golding.
Con sorpresa il team ha scoperto che i libri con la percentuale di conoscenza più alta da parte di Chat GPT sono libri di fantascienza e fantasy. In cima alla lista ci sono Harry Potter e la pietra filosofale, il primo della saga firmata da J.K. Rowling e 1984 di George Orwell. Al terzo posto c'è La compagnia dell’Anello, capostipite questa volta della saga di J.R.R. Tolkien. Ancora, Fahrenheit 451, Il mondo nuovo ma anche Neuromante di Gibson e Il cacciatore di androidi di Philip K. Dick, capolavori cyberpunk che, ironia della sorte, sono stati tra i primi a parlare dei pericoli intelligenza artificiale. Nella lista dei libri ci sono anche un paio di romanzi della saga di 007 di Ian Fleming, mentre tra i testi che ChatGpt conosce meno figurano Shining e I diari di Bridget Jones.
Nerd amante del fantasy e della fantascienza
“In pratica, scorrendo i titoli assimilati da ChatGpt, si scorge il profilo di un giovane adulto, mediamente colto e con una discreta passione per la narrativa fantasy e la nerd culture”, ci informano i ricercatori. Proprio il profilo degli ingegneri informatici che hanno effettivamente programmato il software.
Il team si è sicuramente divertito con un bel gioco letterario, che però nasconde quesiti dal significato sinistro, come osserva Bamman: “Le fonti su cui sono stati addestrati questi modelli di intelligenza artificiale influenzeranno il tipo di modelli stessi e i valori che presentano. Cosa succede quando un bot divora narrativa su tutti i tipi di mondi oscuri e distopici? In che modo questo genere può influenzare il comportamento di questi modelli in modi che non riguardano cose letterarie o narrative? Non abbiamo ancora la risposta a questa domanda”.
4 notes
·
View notes
Text
Un’inchiesta di +972 Magazine e Local Call rivela che l’esercito israeliano ignora le precauzioni a tutela dei civili e affida la scelta dei suoi obiettivi all’intelligenza artificiale. Ecco perché gli attacchi sulla Striscia di Gaza stanno facendo un numero di vittime senza precedenti.
L’inchiesta di rivela che l’esercito israeliano ha autorizzato il bombardamento di bersagli non militari, allentato le limitazioni sul numero di vittime civili tollerabili e usato un sistema di intelligenza artificiale chiamato Habsora (Vangelo) per generare un numero senza precedenti di potenziali bersagli, contribuendo così alla natura distruttiva della guerra nella Striscia di Gaza, una delle campagne militari più sanguinose contro i palestinesi dall’epoca della Nakba (la “catastrofe”, la cacciata dei palestinesi dalle loro terre nel 1948).
L’inchiesta si basa su conversazioni avute con sette agenti dell’intelligence israeliana – tra cui personale militare e dell’aeronautica coinvolto in operazioni israeliane nella Striscia sotto assedio – oltre a testimonianze palestinesi, dati e documentazione dalla Striscia di Gaza, e a dichiarazioni ufficiali del portavoce dell’esercito e di altre istituzioni israeliane.
(Yuval Abraham, +972 Magazine, Israele)
4 notes
·
View notes