Binnen in de machine: Hoe AI-voedselherkenning werkt
Wanneer je een foto maakt van je lunch met CalMind, wordt een complexe reeks neurale netwerken geactiveerd. In minder dan een seconde voert de AI taken uit waar een menselijke voedingsexpert meerdere minuten voor nodig zou hebben.
Fase 1: Segmentatie
Eerst "kijkt" de AI naar de afbeelding om voedsel van niet-voedselitems te onderscheiden (zoals het bord, de vork of de tafel). Het identificeert individuele componenten: de steak, de patat en de salade worden gescheiden in afzonderlijke interessegebieden.
Fase 2: Classificatie
Vervolgens identificeert het model wat elk onderdeel is. Onze database is getraind op miljoenen gelabelde afbeeldingen die wereldwijde keukens bestrijken. Het onderscheidt een "Cheeseburger" van een "Veggie Burger" door textuur, kleurpatronen en context te analyseren.
Fase 3: Volumeschatting
Dit is het moeilijkste deel. "Rijst" herkennen is eenvoudig; weten of het 100g of 300g is, is lastig. CalMind gebruikt diepteschattingstechnieken om een 3D-model van het voedsel op te bouwen ten opzichte van bekende referentieobjecten (zoals standaard bestek of bordgroottes) om het volume te berekenen.
Continu leren
Het systeem is ontworpen om te leren. Elke keer dat een gebruiker een inschatting corrigeert (bijv. "Gebakken kip" verandert in "Gegrilde kip"), wordt het model slimmer voor de volgende gebruiker. Deze collectieve intelligentie maakt CalMind de snelst evoluerende voedingsdatabase ter wereld.
CalMind