le notizie che fanno testo, dal 2010

Google Suggest: la diffamazione è "automatica". Condannato algoritmo?

Google condannato per "suggerimenti diffamatori" del suo algoritmo "Google Suggest", ovvero la "Funzione di completamento automatico". Una sentenza storica soprattutto per il futuro dell'intelligenza artificiale. Il pensiero sintetico e algoritmico è in pericolo?

Quando si digita sul campo di ricerca di Google si attiva immediatamente la funzione "Google Suggest" ("Funzione di completamento automatico"), ovvero quell'utility che il motore di Mountain View accende per "aiutare" l'utente nella sua ricerca. In pratica dietro quel "campo" lavorano degli algoritmi che, statisticamente, associano alla parola digitata delle parole "seguenti" che il sistema di Google ritiene "pertinenti" per via delle digitazioni precedenti di altri utenti. In soldoni se si cerca "Apple" seguirà "store" perché milioni di persone, molto probabilmente, cercano "Apple Store" molto più di altre "combinazioni" come ad esempio "Apple di mio zio fan di Justin Bieber". Il sistema tiene conto dell'attualità e sembra aggiornato in continuazione. Ora, questo sistema di algoritmi informatici sembra sia stato ritenuto "diffamante" rispetto ad un caso di un professionista milanese a cui era associata, proprio da Google Suggest, la parola "truffa" e "truffatore" dopo il suo nome. Pare che l'imprenditore avesse scritto a Google per segnalare l'abbinamento sgradito delle parole, ma Google non avesse censurato il "suggerimento" automatico. L'imprenditore si è quindi rivolto al giudice che ha intimato a Google di rimuovere l'"abbinamento" ritenendo responsabile l'azienda californiana. Google si sarebbe difesa spiegando che il sistema, in quando automatico è "neutrale" ma il giudice dice nell'ordinanza che "E' la scelta a monte e l'utilizzo di tale sistema e dei suoi particolari meccanismi di operatività a determinare - a valle - l'addebitabilità a Google dei risultati che il meccanismo così ideato produce; con la sua conseguente responsabilità extracontrattuale (ex art. 2043 c. c.) per i risultati eventualmente lesivi determinati dal meccanismo di funzionamento di questo particolare sistema di ricerca. Si tratta", continua l'ordinanza, "di una scelta che ha chiaramente una valenza commerciale ben precisa, connessa con l'evidenziata agevolazione della ricerca e quindi finalizzata ad incentivare l'utilizzo (così reso più facile e rapido per l'utente) del motore di ricerca gestito da Google" come si legge da "la Repubblica" ("Suggerimenti diffamatori" Google ritenuta responsabile; di Alessandro Longo http://is.gd/d9s1dc). Su "la Repubblica" Alessandro Longo osserva: "Per prima cosa equipara (si riferisce al giudice, ndr) Google a un hosting provider, rilevando che ormai i motori di ricerca sono come database. Non si limitano a cercare informazioni, ma fanno una copia dei siti web sui propri server. Già questo è un passaggio notevole. Finora infatti, secondo le norme europee, i motori di ricerca hanno responsabilità diverse, più leggere, rispetto agli hosting provider e non sono tenuti a rimuovere qualcosa dopo la segnalazione". Questo caso potrebbe portare a delle riflessioni interessanti, non solo dal punto di vista legale e di responsabilità dei motori di ricerca, ma anche sociali ed informatici. Non solo, sentenze come queste potrebbero porre le basi di uno sviluppo "diverso" delle intelligenze artificiali. Google infatti nella sua pagina di spiegazione del servizio "Funzione di completamento automatico" (Google Suggest) spiega che "Le query della funzione di completamento automatico vengono determinate in modo algoritmico in base a una serie di fattori oggettivi (come la popolarità dei termini di ricerca), senza alcun intervento umano" (http://is.gd/LOa8RN). Quindi in un certo senso, dopo questa sentenza si potrebbe aprire un "filone" giuridico che potrebbe portare il "data mining" e la "semantica" (intesa come agente di intelligenza artificiale) ad essere "condannati" quando producono dei risultati sgraditi. Una "condanna" interessante che avvicina filosoficamente l'automazione dall'aspetto "umanoide" all'uomo in carne ed ossa che deve rispondere alle leggi umane del paese in cui risiede. Quindi, sempre continuando nel ragionamento, anche il pensiero artificiale (o meglio sintetico) sarà punibile, ma non potendo condannare un computer o un software (magari all'autodistruzione), sarà sempre punibile il suo creatore, anche se è il software ad aver preso una decisione "autonoma" e indipendente. A questo punto se un programmatore compilasse un "lanciatore automatico di parole" e queste parole, abbinandosi randomicamente, formassero nomi e cognomi con accanto parole "sgradite", sarebbe condannato il programmatore, anche se non poteva avere "conoscenza" del risultato. Davvero un tema affascinante che inpegnerà i giuristi dei prossimi anni. Giuristi che però non possono prescindere anche dallo studio dei precursori di questa materia quali Isaac Asimov, Robert Sheckley, Philip K. Dick (ricordate Benny Cemoli?) e lo studio di album dei Kraftwerk (in primis "Die Mensch-Maschine" e "Computerwelt"). Senza dimenticare le profonde e ossessive liriche di "Trans" di Neil Young che, saggiamente e profeticamente ammoniva in We R In Control: "Chemical computer thinking battery". Già.

• DALLA PRIMAPAGINA:

• POTREBBE INTERESSARTI:

• LE ALTRE NOTIZIE: