L’esclusiva è di TechCrunch, che ha visionato le vecchie linee guida consegnate da Google ai propri contractor incaricati di validare le risposte fornite da Gemini, l’Intelligenza artificiale della Big Tech. «Se non hai competenze critiche (ad esempio coding, matematica) per valutare questo prompt, salta questo compito», così si leggeva nei documenti visionati dalla testata americana e che, a quanto pare, suggeriva alle persone inesperte di un determinato tema di non curarsi di eventuali errori e sbavature nelle risposte fornite dal software.
Gemini, le nuove linee guida di Google
Le nuove linee guida, che modificano quelle precedenti citate da TechCrunch, hanno corretto il tiro e richiedono ora maggiore precisione da parte di chi monitora la precisione e l’accuratezza dell’AI. «Non dovresti saltare le richieste che richiedono una conoscenza del dominio specializzato». Invece è importante, sottolinea il documento, «valutare le parti del prompt che capisci».
Non è certo la prima volta che si parla di sciatteria e fake news come frutti dell’Intelligenza artificiale. Oltre a questo c’è anche la questione della violazione del diritto d’autore, denunciata anzitutto da testate giornalistiche. In casi estremi l’AI diventa un tema di cronaca: negli Stati Uniti una donna ha fatto causa a Character.ai, una delle società attive nel settore, accusandola di aver spinto il figlio a togliersi la vita.