OpenAI ha in mano un software – giudicato promettente – in grado di capire se un testo è stato scritto dalla propria intelligenza artificiale, con un grado di precisione del 99,9%. Da quando ChatGPT si è diffuso in tutto il mondo, a partire dal novembre 2022, l’utilizzo dell’intelligenza artificiale ha registrato situazioni più o meno lodevoli. TechCrunch, ad esempio, ha esordito dicendo che grazie a questo programma gli insegnanti potrebbero capire se il compito degli alunni è stato davvero scritto di loro pugno.
Perché Sam Altman non rilascia il software stana AI?
Resta tuttavia da capire se l’azienda pubblicherà prima o poi questo software. Come si legge anche su The Verge, alcuni utenti – stando ad analisi di mercato – hanno dichiarato che di fronte a uno strumento del genere smetterebbero di utilizzare ChatGPT. Questo dimostra dunque quanto ancora sia poco accettato nei vari ambienti di lavoro l’utilizzo dell’intelligenza artificiale per produrre testi. C’è una domanda a cui rispondere: chi la utilizza è disposto a renderlo pubblico?
Uno strumento per capire se un testo è stato creato grazie all’intelligenza artificiale potrebbe dunque danneggiare il business di OpenAI. Il Wall Street Journal, che per primo ha riportato lo scoop, ha raccolto le dichiarazioni di alcuni dipendenti della società di Sam Altman: sembrerebbe che il software sia pronto da almeno un anno e che sia soltanto questione di premere un pulsante.