Il progetto pic2recipe punta a usare le reti neurali per capire gli ingredienti presenti in un cibo partendo semplicemente dalla sua immagine
In qualche episodio di Masterchef, ai concorrenti è stato chiesto di riprodurre una pietanza semplicemente guardando il piatto pronto. Capire ingredienti, dosi e tempi di cottura osservando il prodotto finito senza conoscerne la ricetta è una dote da cuochi esperti, non certo da tutti. Tuttavia il Massachussett Institute of Technology sta cercando di trovare un modo per conoscere le fasi di preparazione di qualsiasi cibo dalla sua foto. Dopo gli origami di pasta che diventano penne e maccheroni una volta messi nell’acqua, il MIT continua con le innovazioni nel settore culinario, e questo progetto potrebbe essere molto d’aiuto a chi vuole tenere sotto controllo le proprie abitudini culinarie o condurre una dieta specifica: il team pic2recipe sta sperimentando un algoritmo che usa le reti neurali per decifrare la ricetta di qualsiasi cibo semplicemente fotografandolo e confrontandolo con altre foto tratte dai social media.
Un database con oltre 100 foto
Il progetto è ancora in fase di costruzione: al momento è in grado di definire correttamente la ricetta dei prodotti nel 65% dei casi, perché le immagini spesso non sono abbastanza nitide oppure foto degli stessi cibi non sono abbastanza “simili” per essere riconosciute ed accomunate dal software. Il progetto pic2recipe si appoggia a Food-101 Data Set, un algoritmo per identificare il cibo scritto nel 2014 da un team di scienziati svizzeri che hanno usato un database di oltre 100 mila foto di cibi. A questo database si aggiunge un bagaglio di foto tratte dai più popolari siti di cucina e food come All Recipes and Food.com.
Il muffin sì, il sushi no
Secondo l’autore del progetto Nick Hynes, il problema delle foto su internet è la variazione degli stili che le foto assumono a seconda di chi le scatta, che rende difficile al sistema l’identificazione.
Il progetto ha dato buoni risultati soprattutto per determinate tipologie di dolci, come i muffin, mentre per prodotti come il sushi o i frullati l’algoritmo fa più fatica a capire come sono stati realizzati.
Insomma, c’è ancora parecchia strada da fare prima di poter avere sul telefono lo “shazam del cibo” ma al MIT ci stanno lavorando, anche perché, oltre ai foodies, un’app del genere potrebbe essere utilissima a chi soffre di allergie o chi deve attenersi ad alcune restrizioni alimentari.