神經網絡替你寫前端代碼

カテゴリー │科技

我才明白這些方法並不能準確的預測顏色和位置,這是我意識到卷積神經網絡當中存在一些不足。這導致我使用增加步長的辦法去代替最大池化方法。損失從0.12降到了0.02,同時BLEU評分從85%升到97%。 如果具有相關性的話,僅考慮使用經過預訓練的模型。對於小型的數據集,我認為一個經過訓練的圖像模型可以改善表現。以我個人的經驗看來,一個端到端的模型訓練費時,並且需要更多的內存,但是準確率會提高30%。 如果使用遠程服務器運行模型,需要考慮到輕微的偏差。我的MAC以字母表順序讀取文件,但是在服務器上,文件是隨機讀取的。自動抹窗機械人比較,價錢不知該如何選擇?Ecovacs作為家用機械人專家,生產領先業界的全自動清潔機械人,我們Winbot 950可清理多種玻璃窗戶污垢,方形設計有助清理角落與邊緣,配合四階段清潔功能,自然是您無塵家居的最佳選擇。

這會導致截圖和代碼之間的不匹配。雖然預測結果趨同,但是有效數據比起重新匹配前要糟糕50%。 掌握引用的庫函數。包括詞匯表中的空詞條裏的填充空格。如果不進行特別添加,識別中將不包括這一標記。我是通過幾次觀察到最終結果中無法預測出“單個”標記,才註意到這一點。快速檢查一遍後,我意識到這並不包含在詞庫中。同時也需要註意,訓練和檢測時,需要使用同樣順序的詞庫。 實驗時使用輕量的模型。利用GRU而不是LSTM可以讓每光華疊代循環的時間減少30%,並且對於結果不會有太大影響紅酒學校
前端開發是應用深度學習理想的空間。生成數據容易,並且現在的深度學習算法可以實現絕大部分的邏輯。 其中很有意思的地方是“通過LSTM實現註意力”。它不僅可以用來提高準確率,而且讓我們可以讓CNN將它的註意力放在生成標簽上。 註意力也是標簽、樣式、腳 本甚至後端之間交流的關鍵。註意力層可以追蹤變量,使神經網格可以在不同的編程語言中交流。 但是在不久的將來,最大的影響來自於建立生成數據的可擴展方法。那時你可以一步步地添加字體、顏色、內容和動畫。 目前大部分的進步在是將草圖轉換成模板。在兩年內,我們可以在紙上畫上應用的模板,然後瞬間生成對應的前端代碼。事實上Airbnb’s design team(https://airbnb.design/sketching-interfaces/) and Uizard(https://www.uizard.io/)已經建立了基本可以使用的原型了。

這裏有一些實驗可以嘗試



實驗 開始 運行所有的模型 嘗試不同的超參 試驗不同的CNN結構 添加雙向LSTM模型 使用不同的數據集實現模型(在FloydHub上使用不同的數據集很方便,你隻需要為你的任務加上 --data emilwallner/datasets/100k-html:data)

進一步的實驗



根據相應的語法創建一個穩定的隨機應用/網站生成器。 生成從草圖到應用的數據。自動轉換應用/網頁截圖到草圖並用GAN來構建多樣性。 添加註意力層,可視化每一次預測的焦點,像這個模型一樣。 為模塊化方法創建一個框架。比如字體編碼器、顏色編碼器、結構編碼器,然後用一個解碼器將它們整合起來。從穩定的圖像特征開始似乎不錯。 讓神經網絡學習簡單的HTML組件,然後將它生成CSS動畫。註意力機製和可視化輸入源真的很神奇英國升學顧問

深度學習鄰域的資深博客撰寫者,投資人,曾就職於牛津大學商學院,現長期居住在法國,是非盈利組織42(écoles)項目組成員。我們已獲得授權翻譯


譯者簡介


proffl


就職於農商行,對編程有極大的熱情,對技術充滿渴望。沒有什麽興趣愛好,以前挺愛玩遊戲的,現在也不玩了。


大門


化學專業出身,從事教育培訓十年。因結識數據君,重新認識了並試圖進入數據分析應用行業。通過數據圈平臺從零開始學習掌握,利用所學完成部分翻譯工作,諸般所得離不開眾多圈友的鼓勵和幫助公司註冊


賈維斯


統計學碩士,數據分析從業者,現供職於某世界五百強瑞典總部


原文地址:http://www.sohu.com/a/217605568_464026




タグ :實驗



上の画像に書かれている文字を入力して下さい
 
<ご注意>
書き込まれた内容は公開され、ブログの持ち主だけが削除できます。