在2010年代中期,科學家和工程師詹妮爾巴蒂爾為自己做了一個名字,讓神經網絡的荒謬。她的博客,AI古怪,記錄發生了什麼當她從訓練神經網絡油漆的顏色來動物的名字。多次,謝恩試圖滿足神經網絡數據庫的食譜,隻讓他們吐出完整的無稽之談。“小三明治”的秘訣從2017年包括測量“1沙拉醬。“從那一年另一個名字”烤其他謊言1993蛋糕”,並指示:“如果,變得溫暖,小心地霜用的醬料。”巴蒂爾使用她的博客展示神經網絡可以和不能做什麼,和讀者走開理解這些工具,而令人印象深刻,沒有任何表麵上我們所知道的情報或關鍵的想法。他們隻是反芻模式。
當然,人工智能已經走了很長的路從肖恩的實驗在2010年代。它現在可以創建實際上可以遵循的食譜,義務特技的博客在他們的後,所有試圖回答的問題是否AI-generated食譜好。雖然這個問題遠未解決,但這並沒有阻止科技樂觀主義者和風險投資家的美食家彎把他們所有的希望到技術。上個月,BuzzFeed推出“Botatouille”,聊天機器人,推薦食譜從公司的食品垂直,好吃。啟動CloudChef聲稱使用人工智能數字化不僅食譜,廚師的技術指導人員,這樣“不知道的人從蔥韭蔥會編造米其林Guide-worthy盤雞肉pulao,“作為食客科幻編輯勞倫Saria。
盡管財力雄厚的投資者的熱情,大多數賬戶AI-generated食譜仍然不是很好。Priya克裏希納寫道據說一個AI-generated菜單設計正是她的口味給她糊狀chaat幹燥土耳其(它呼籲沒有黃油或油)。廚師唐納德Mullikin必須使自己調整食譜,因為ChatGPT一直顯示錯誤的胡椒,和不包括鹽。最近,我參加了一個辣椒烹飪比賽的選手大加讚賞他們的骨髓辣椒來自在ChatGPT輸入“骨髓辣椒”。結果是乏味和粉,幾乎沒有誘人的骨髓的標誌。我嚐試使用Botatouille導致失望;請求使用非西方的材料像興粉和ong白菜會見了食譜,不包括他們,和一個要求low-FODMAP墨西哥食譜長大三個選項與high-FODMAP成分。簡單地要求一個配方,使用兩個卷心菜和西紅柿召見三tomato-heavy食譜沒有卷心菜。
任何技術的核心是保證它將解決一個問題。有防曬霜遭受灼傷你的問題時,當你的問題和印刷術是教堂保持群眾文盲。但任何資本主義企業的目的是告訴你哪些問題需要固定的,主要是,你最大的問題是他們提供你沒有的東西。
不幸的是,這些工具目前存在不解決任何問題在廚房裏。如果問題不是通心粉沙拉食譜在你的麵前,搜索引擎可以生產。如果問題是確保一個食譜是可信和可靠的來源,信息來自於這些語言的融合模型實際上並沒有給你什麼更多的信任,實際上掩蓋了這些知識。如果問題是你不知道如何掃描一個食譜,告訴如果它似乎會變好,AI不能教你。
在某種程度上,我理解的人骨髓辣椒。很容易ChatGPT描繪成某種超級大腦。如果你可以把世界上所有的食譜,將它們混搭在一起,從那拿出一個超級配方嗎?肯定是最好的,對吧?
這不是ChatGPT或任何其他神經網絡是如何工作的。“人工智能平台恢複模式和關係,然後使用它來創建規則,然後做出判斷和預測,當對一個提示,”寫道的哈佛商業評論。在的《紐約客》,泰德蔣介石比較ChatGPT模糊,有損JPEG -它可以模擬原始,但是“如果你正在尋找一個確切的比特序列,你不會找到它;你會得到一個近似。“它不運作,不同於更傳統的搜索引擎像穀歌,盡管這些可能給你直接引用或主要來源,ChatGPT給你一個總結的信息,基於它認為你在找什麼,沒有能力檢查拉從來源。
利用ChatGPT的能力之一,建議使用雞大腿一周的食物,或導致Korean-influenced cacio e佩佩,是取決於語言模型提供的信息是在一個連貫的方式(沒有“1沙拉醬”測量)和接受者的現有的食物和烹飪知識。你必須知道鬆餅配方是什麼樣子知道ChatGPT已經給你一個可以產生一種成功的鬆餅。雖然Mullikin聲稱他與ChatGPT“合作”,他基本上是描述糾正算法,直到給他的材料像泡菜汁和辣椒醬他知道他想要使用了。
雖然並不AI實際解決問題相關烹飪,它仍然可以改善我們的烹飪和飲食方式?一個流行的應用程序是膳食計劃,尤其是對於那些飲食限製,使購物變得複雜。但是,華盛頓Post筆記ChatGPT的訓練數據在2021年結束,這意味著它不能提供最新信息。也是訓練主要是英文菜譜,尼克·夏爾馬說喜歡西方的口味和飲食,一個缺點如果有人想無穀蛋白飲食和吃一片,包括很多中國菜。它隻是讓事情錯了。本文還建議人們仔細檢查他們給予的一切,失敗的便利。奧利維亞斯科爾斯,ChatGPT創建一個飲食計劃來幫助患有多囊卵巢綜合症,告訴帖子,“我們的世界是充滿了偏見和完整的東西不是真實的。我有點擔心AI的倫理,它建立在。”
最大的擔憂之一當前人工智能工具生成內容的別人的知識產權。它的一個主要問題美國作家協會是驚人的,和藝術家已經了AI開發者告上法庭。論文和漫畫和照片和歌曲被用於訓練這些語言模型沒有創造者的知識或同意,沒有任何方式來引用這些影響。
但是適當的引用在食譜,長期以來一直是問題不能受版權保護的,因為他們認為的配料和說明。一個語言模型訓練在指令不是合法侵犯任何人的權利。
這可能看起來像一個在艾未未的青睞。但合法性和道德從來沒有完全重疊。雖然食譜不能受版權保護,烹飪書和寫在菜譜。語言模型去掉,上下文,因此支付能力相當的創造性努力的人。如果緩存食譜的通知語言模型是什麼告訴你做飯,這是不好的創造者不僅僅是無報酬的,但不被承認的。語言模型還帶菜譜的東西可以教一個更好的廚師。“烹飪是每一口的總和我們曾經被告知我們的口味,“艾麗西亞肯尼迪寫道,誰說你不能正確地引用任何配方即使你嚐試。這就是為什麼食譜需要上下文,一個曆史的解釋,一種觀點,或者為什麼選擇的決定。當ChatGPT給你一個配方,它並沒有說誰想出了它,他們正試圖完成什麼,為什麼他們選擇使用更多的香料或換出一個共同的成分。是空的指令是試圖指導你。
在金融時報》,麗貝卡·約翰遜可能問自己如果她對烹飪喜歡思考——也就是說,如果她出現在烹飪的時候,不僅遵循指令。“當我做飯,我使用產生的知識通過一代又一代的廚師在廚房的工作世界各地,”她說。”隻是因為我認為它是可能的理解會發生什麼當我加入鹽,或蓋鍋,或者留下一個醬。”
我不能強迫你去關心一個食譜的起源,或認為閱讀和思考,並給予關注創建一個食譜是應該重視的事情。總是會有那些隻是想使通心粉沙拉。一樣,我個人認為這是搶劫你的驚人的經曆,這很好。有時候你隻是需要通心粉沙拉。
沒有人阻止你巴德或ChatGPT開放,讓它給你一個配方。語言模型的工具,用來然而我們認為它們是有益的。但現在這些工具,因為他們的存在,他們被銷售的企業投資於你使用它們,不解決你的烹飪的問題。他們不使這一過程更容易,更快、更直觀。他們不能提供選項不存在。他們使任務更混亂,更透明,更可能會失敗。和未來的他們可能會更好,他們實際上可能會解決一些問題在廚房裏,依靠知識和創造力的山,到目前為止,這些工具將不承認或信貸。我們需要首先解決這個問題。