MITならではの「料理ハック」。材料とレシピを料理写真から予測する。

SNSなんかで流れてくる、友達の“手づくり料理自慢”。どうやって作ったんだろうと気になってしまったり。あるいは、予約の取れないあの店のあの料理、写真だけで味わってきたけれど…。

でも、それが一瞬でわかっちゃうとしたら?

料理写真から
原材料とレシピを予測

アメリカMITのComputer Science and Artificial Intelligence Laboratory (CSAIL)の研究者たちが開発しているのは、そんな時代に沿った画期的な新システム。

なんでも料理の写真を提示するだけで、その原材料とレシピを割り出してくれるんだとか。「これ美味しい!」を「自分でも作ってみよう!」の発想に変えてくれるわけだから、このアイデアが料理づくりへのハードルを少しだけ下げてくれたと言えるんじゃないでしょうか。

あ、もちろん調理のスキルは別のハナシですけどね。

まずは料理の写真をパシャリ

まずは、気になる料理の写真を撮ります。すると、独自のアルゴリズムを使って、MITが作成したデータベースの中から類似する料理を検索。写真とできるだけ近い料理の原材料と、レシピを探してきてくれます。

現段階での精度は、まだまだ科学者たちを納得するまでとはいかないようですが、近い将来、その整合性は80%近くまで上がってくるだろうと、自信を覗かせています。

アイデアソースは、
100万種以上の料理データベース

今のところ、香港大学が110,000の画像と65,000のレシピを揃えた同様のシステムを構築していますが、クリエイトできるのは、残念ながら「中国料理」のみ。MITの狙いは、これをはるかに上回る100万種類以上の料理データベースの構築。実現すれば、日本の料理からも、きっといくつかデータベース化されるはず。

オンラインで試せます

誰でもオンラインでデモ版を試せるので、今の精度を試してみると面白いかも。ちなみに、現段階ではクッキーやマフィンなどのデザートものに強いようです。反対に、巻き寿司やスムージーなど中に何が入っているか一見わからないものには弱いそう。

いつか、こういうシステムがSNSでもデフォルトで使用できる時代がくるんだろうなあ。

Licensed material used with permission by MIT CSAIL
TABI LABO この世界は、もっと広いはずだ。