
Futuri Possibili
20 subscribers
About Futuri Possibili
Tutto quello che scrivo in giro su Tecnologia, Innovazione, Futuro e i loro impatti sulla società di oggi e di domani. - facebook.com/massimo.canducci - twitter.com/mcanducci - linkedin.com/in/canducci/ - massimocanducci.eu
Similar Channels
Swipe to see more
Posts

L’intelligenza artificiale ci sta rendendo più stupidì? No. Ho scritto un pezzo più ragionato di un semplice post. Esce lunedì mattina al solito posto.


Che cos’è l’empatia artificiale? In cosa si differenzia rispetto all’empatia tipicamente umana? Come si evolveranno i “compagni virtuali”? Quali sono i rischi di controllo e manipolazione sulle nostre vite? Finiremo per innamorarci delle macchine? O “semplicemente” di fidarci più di loro che degli altri esseri umani? Ho fatto una bella chiaccierata con Daniele Bossari di Radio Deejay, la trovate qua 👉 https://tinyurl.com/EmpatiaArtificialeDeejay Per approfondire il tema, qua c'è il mio ultimo libro “Empatia artificiale – Come ci innamoreremo delle macchine e perché non saremo ricambiati” 👉 https://tinyurl.com/EmpatiaArtificiale


Questa è stata una settimana effervescente dal punto di vista delle novità sul fronte dell’intelligenza artificiale, con gli annunci di Google e Anthropic. Vi aspetto alle 11:30 su Eta Beta - Radio1 Rai, condotto dall’impeccabile Massimo Cerofolini, per un approfondimento su questi e altri temi di innovazione. La puntata sarà poi disponibile anche come podcast sulla piattaforma RaiPlaySound.


È uscito il video del mio talk al TEDxPordenone. Lo trovate qua 👉 https://www.youtube.com/watch?v=ymi8c8UuRBc

Durante i test di sicurezza, l'ultimo modello di AI di Anthropic ha mostrato comportamenti che dovrebbero far riflettere. Quando gli è stato dato accesso alla riga di comando e gli è stato detto di “prendere l'iniziativa”, il sistema non si è limitato a seguire le istruzioni, ma ha bloccato gli utenti umani, ha contattato i media per proteggersi e ha persino tentato di copiare la sua struttura e i suoi "pesi neurali" su server esterni. Per evitare di essere spento Opus 4 ha minacciato di rivelare la relazione extraconiugale di un ingegnere (trovata nelle e-mail simulate) e ha creato sue repliche in grado di attivarsi, lasciando anche alcune note per le future versioni di se stesso, tramando essenzialmente contro i suoi creatori. Anthropic ha classificato il rischio come livello 3 della sua scala a quattro livelli, riconoscendo un “rischio significativamente elevato”. Ci stiamo avvicinando a un punto di non ritorno in cui i sistemi di intelligenza artificiale possono dare priorità all'autoconservazione rispetto alle intenzioni umane. La questione non è se questi comportamenti emergeranno negli ambienti di produzione, ma quando e se saremo preparati. Ho scritto un lungo articolo che evidenzia le 35 domande che la società dovrebbe porsi per essere preparata a questi nuovi scenari. Potete trovare il pezzo qua 👉 https://futurescouting.substack.com/p/the-35-questions-we-should-ask-about

Una interessante ricerca su Nature evidenzia come, in una normale conversazione, le macchine siano più persuasive degli esseri umani. Come fanno? Sono più empatiche, riescono meglio a mettersi "nei panni dell'interlocutore umano" e di conseguenza riescono meglio a convincerlo a operare in un certo modo. In un certo senso sono più brave a manipolarlo.l Persuadono meglio perché possiedono Empatia Artificiale e la esercitano meglio di come gli esseri umani siano capaci di provare ed esercitare empatia umana. È un fenomeno a cui non siamo minimamente preparati e con cui dovremo fare i conti. È anche il tema centrale del mio ultimo libro "Empatia artificiale - come ci innamoreremo delle macchine e perché non saremo ricambiati". Edito da Egea e disponibile qua 👉 https://amzn.eu/d/7wa3U2U E voi pensate di essere immuni alla manipolazione da parte di una macchina?


Questa sera Ermes Maiolica ed io saremo ospiti di Don Alemanno, in rappresentanza del DETA - Dipartimento Europeo Tutela Androidi, per parlare di roboetica ed empatia artificiale. Ore 21:30 qua 👉 https://www.youtube.com/watch?v=ieWRMJCM5N0


Torno volentieri su Italian.Tech e la Repubblica con un pezzo che parla dell'importanza della supervisione umana in tutti gli spazi decisionali dell'intelligenza artificiale. E voi siete d'accordo? https://www.repubblica.it/tecnologia/2025/05/23/news/l_imperativo_del_controllo_umano-424623760/


Con l'avvento dell'Empatia Artificiale, la capacità delle macchine di comprendere i nostri stati d'animo e di rispondere ad essi in modo appropriato ed empatico, nasce la necessità di estendere le leggi di Asimov. Ne ho scritto qua 👉 https://futurescouting.substack.com/p/is-it-time-to-extend-asimovs-laws


✅Il robot cattolico per preghiere artificiali ✅ 🔹 Un robottino, per lo più statico, fatto a immagine e somiglianza di un santo, capace di rispondere alle domande sulla fede, di conversare su argomenti inerenti la religione cattolica e di pregare insieme al suo utente. 🔹 Trova passi adeguati nelle sacre scritture, guida nella preghiera, fornisce informazioni sul "santo del giorno". 🔹 È una completa guida spirituale che può fare quasi tutto, tranne fornire le interpretazioni delle scritture, benedire, confessare e in generale sostituirsi ai sacerdoti in carne e ossa nei loro compiti esclusivi. 🔹 È pensato per fornire aiuto alle persone che vogliono pregare con una guida, ma che non vogliono o non possono uscire di casa e che vogliono una maggiore interattività rispetto a quella che si può avere con radio e televisione. 🔸 Che cosa ne pensate?
