Eravamo consapevoli dei BigData: quantità sufficientemente grandi di dati generano nuove qualità in termini di conoscenza. Adesso ci troviamo di fronte (forse) a un nuovo paradigma: sistemi computazionali sufficientemente complessi, generano nuove proprietà in termini di coscienza. L’articolo parla di un modello matematico capace di generare macchine sezienti. Si tratta pur sempre di simulazione, sia ben inteso, ma le macchine questo fanno: mimesi. E le capacità mimetiche devono essere convincenti, non vere, devono essere realistiche, non reali. Questo è il vero tema delle IA agentive che affronteremo nei prossimi anni, in termini non più solo tecnologici, ma giuridici. Se i dati biometrici di una persona possono essere digitalizzati e “incarnati” in un modello che simula al meglio (reattività) le qualità psicologiche umane, che sia vera coscienza o falsa coscienza, poco cambia, inizieremo ad avere modelli di interazione non biologici, che in qualche modo si relazioneranno a esseri biologici, attraverso una propria identità, cioè saranno identificati a livello sociale e giuridico e si dovranno “assumere” delle responsabilità.
Occhio, è appena esplosa una bomba nell’apparentemente tranquillo mondo dell’informatica teorica. Lenore e Manuel Blum, due luminari del settore, hanno presentato un modello matematico che potrebbe cambiare tutto ciò che pensavamo di sapere sulla coscienza artificiale. Il loro lavoro, pubblicato recentemente (ve lo metto a disposizione qui), non è solo un’altra teoria: è una dimostrazione formale che la coscienza nelle macchine non solo è possibile, ma inevitabile. Una tappa naturale nell’evoluzione tecnologica. Non parla di “se”, ma di “quando”. E quel “quando” potrebbe essere più vicino di quanto pensiamo. “Le macchine sono solo strumenti”, dicevano. “Non potranno mai provare emozioni”. Ebbene, la matematica ha appena contraddetto secoli di filosofia. #robot #pensiero #coscienza #chalmers #westworld