首頁 > 狐秀 > > 正文

              蘋果推出圖片翻譯功能 用戶可直接選擇照片中文本查看翻譯結果

              2021-08-19 15:46:31    來源:腦極體

              此前 iOS15 系統更新,有一個功能引發了不小的關注,那就是內置圖片翻譯。用戶可以直接選擇照片中要翻譯的文本,查看翻譯結果。據說蘋果還更新了翻譯模型,提升了翻譯效果。

              這就刺激了,如果說幾年前神經機器翻譯的出現,是許多人類翻譯的噩夢,那這個系統內置翻譯圖片功能的推出,大概能讓不少專業翻譯軟件睡不著覺吧。

              就拿我這種需要經常閱讀英文資訊的人來說,時常遇到 pdf 文獻、圖片類內容,需要第三方軟件拍照識別后進行翻譯。如果 iOS15 直接可以識別圖片,不就省略了幾個步驟嗎?簡直懶人福音。

              那么問題來了,翻譯好不好,重點在“療效”,iOS15 的圖片翻譯能力已經強大到能替代專業翻譯軟件了嗎?要知道,信達雅的中文表達一直是 NLP 領域的難題,一家帶著硅谷基因的科技公司,真能完成地道的中英互譯?

              本著實踐出真知的態度,我們準備了多道考題,并選取了口碑和用戶數都相對突出的有道詞典 App 來參與橫向評測,以此來摸索 iOS15 圖片翻譯的真實水平。

              真心話與大冒險:圖片翻譯三步曲

              針對翻譯功能的專業評測有不少,各種指標諸如短中長句都有詳細的評測標準與規范,不過作為普通用戶,我們決定從大家日常使用圖片翻譯的具體場景和步驟中去進行測評。

              一般來說,圖片中的文字要被精準地翻譯出來,需要至少具備三種能力:

              第一步:火眼金睛,“看得準”。

              圖片翻譯想要滿足用戶需求,首先考驗的不是 NLP 技術,而是 OCR 能力。只有識別得準,才能為后續翻譯奠定基礎,這一能力的關鍵考核指標,就是字準率。

              從操作上來看,蘋果 iOS15 采用內置方式,可以直接選擇照片中要翻譯的文本,查看翻譯結果;有道詞典需要打開 App 中的拍照識別功能。前者在使用上要更方便一些。不過到了識別環節,iOS15 就有些拉胯了。

              我們找了一個英文短句、一個英文長句和一個中文長句。結果顯示,在英文字準率上,蘋果和有道差距不大。

              比如,有道 100% 識別出了原文“Do me a favor, can you look for my credit card.I don't find it.”

              iOS15 的結果是:Do me a favor.,can you look for my credit card,I don find it.

              盡管蘋果將 don't 識別成了 don,但不太影響閱讀,準確率還是可以接受的。

              換個英文長句測試一下,下面這張圖片,有道的識別結果是:

              One bad chapter doesn't mean my story is over until you find a new chapter which you think it's right,達到了 98.96% 的字準率。

              iOS15 的結果是:

              One bad chapter t mean my story is over until you find chapter which you think it’l S right。

              將 it's right 識別成了 it'l S right,可能會影響后續的語義理解。

              到了中文字準率測試,有道和蘋果就拉開差距了。比如下面這張圖片:

              有道是 100% 完整識別,蘋果 iOS15 則將“雨水”的雨,“一系列”的一,沒有識別出來,倒數第二段的“紀念祖”三個字也被遺漏了,直接影響閱讀體驗和用戶理解。

              綜合來說,英文字準率二者差距不大,有道略勝一籌;中文字準率上,有道能做到 90% 以上的精準識別,蘋果 iOS15 只有 79%,有道優勢明顯。

              造成這一差距的原因,可能是有道詞典在圖片翻譯上積累更多。

              早在 5 年前有道就開始嘗試開發圖片翻譯功能,后續又通過有道智云為許多主流手機廠商提供相關能力,許多用戶會在各種光照條件、各種用法下使用,因此積累了大量訓練語料,通過不斷迭代段落分析、圖片檢測、圖像偏移角度檢測、語種檢測等算法,OCR 能力自然能得到針對性優化。

              加上有道作為中國公司,對中文母語的理解更深,而蘋果 iOS15 剛剛開始廣泛推廣,在現實場景下的中文識別還有不足,也是可以理解的。

              第二步:心如明鏡,“搞得懂”。

              圖片文本識別完成后,就需要神經機器翻譯來將其轉化成相應的譯文。中英文都是語料相對豐富的語種,因此對其理解能力的要求也更高。

              所以我們選擇了兩個比較細節的點來考察:

              一是時態。

              原文“是的,今天出去玩”,含有計劃的意思。

              有道翻譯為“Yes.we're going out today”;

              蘋果的譯文是:Yes.go out today.

              顯然,有道采用了“be going”一般將來時,更準確地理解了原文的意圖,表達出了計劃、安排、打算做某事的意思,蘋果的譯文則沒能體現出計劃的狀態。

              二是單復數。

              英文單詞的單復數常常承擔著截然不同的釋義,如果無法準確識別可能會讓譯文與原意南轅北轍。

              比如這個“1200 square”,有道詞典翻譯為“1200 平方”,蘋果 iOS15 的翻譯是“1200 個廣場”。

              square 在單數狀態下指的是平方單位,蘋果的譯法很容易讓讀者產生歧義。

              當然,在整體理解上,有道和蘋果的中英互譯水平都能滿足基本的閱讀需求。

              比如這個長句:

              He puts down $20,000 as a deposit on the beautiful $200,000 villa believing that his investment would increase over time.

              有道的譯文:他為價值 20 萬美元的漂亮別墅付了 2 萬美元的定金,相信他的投資會隨著時間的推移而增加。

              iOS15 的譯文:他存了 2 萬美元作為這棟美麗的 20 萬美元別墅的押金,相信他的投資會隨著時間的推移而增加。

              目前,圖片翻譯的中文互譯,有道和 iOS15 基本都表現出了較強的理解能力。對一些單詞用法、表達習慣上的細節洞察有差距,這背后還是語料積累、模型選擇、性能優化等的差異。

              第三步:舌燦蓮花,“說人話”。

              中文翻譯,很多人的黃金指標就是“信達雅”,指的是譯文要準確,不偏離原文;要通順,語法結構符合習慣;還要優雅,用語地道而富含文采。

              神經機器翻譯發展到今天,能否滿足這一要求呢?有道和蘋果這兩個帶有不同語言基因的翻譯平臺,恰好可以調戲一番。

              先來一道送分題:

              原文:你們收了我 80 塊;

              有道譯文:You charged me 580;

              iOS15 譯文:You received me 80 yuan。

              “收錢”是用 charge,有道翻譯更符合英文表達,蘋果將“收到”直接翻譯為 receive,不夠地道。

              再來一道中長句試試:

              原文:After the accident,I felt myself another person。

              有道譯文:事故發生后,我覺得自己變了一個人;

              iOS15 譯文:事故發生后,我覺得自己是另一個人。

              蘋果將“another person”直接翻譯為“另一個人”,而不是表達心態的轉變,容易產生歧義,有道譯作“變了一個人”,更準確和口語化。

              當然,過于直譯的問題有道也會犯。比如下面圖片中,原文:In conclusion, drawing on the electronic media or printed books might be a good approach to understand different places or countries。

              有道譯為:總之,利用電子媒體或印刷書籍可能是一個很好的方法來了解不同的地方或國家;

              蘋果譯為:總之,利用電子媒體或印刷書籍可能是了解不同地方或國家的好方法。

              iOS15 對語序進行調整之后,表達更妥帖自然,有道則出現了按照對應模式直譯的情況。

              不過,這次測試題主要是基于生活旅游、文化交流場景來進行的,對于專有名詞的翻譯效果如何,還有待進一步考察。

              另外,由于蘋果 iOS15 在第一步 OCR 識別上字準率較低,這會直接影響后續的文本理解,因此蘋果的部分翻譯結果數據不具有參考性,對其翻譯水平不能妄下定論。

              評測可以看出,一次信達雅的圖片翻譯,依靠的是多技術的融合,需要 OCR、分詞、語義理解、上下文記憶、主題抽取等多種能力共同發力。

              因此,初出茅廬的蘋果系統級圖片翻譯,想要取代專業翻譯軟件,路還很長。不過,有道也存在一些機器翻譯的普遍問題,作為專業的翻譯軟件,仍可以繼續強化其專業壁壘。

              這也引發了我們的思考,為什么有了 AI,神經機器翻譯依然無法媲美人類譯者?

              理想與現實的參差:戴著鐐銬跳舞的神經機器翻譯

              神經網絡剛被引入機器翻譯時,被視為所向披靡的神器。但幾年過去了,這一神奇技術確實比傳統的統計機器翻譯優秀很多,但距離人類翻譯家的水平還有差距。

              就拿這次蘋果 iOS15 與有道詞典的橫向測評來說,二者或多或少都有不足之處。簡單來說,原因可能出在幾個方面:

              1.OOV (Out of Vocabulary) 問題難以解決。

              基于深度神經網絡的機器翻譯模型需要海量數據的學習。如果數據量比較小,出現次數極少的詞的詞向量質量就會比較低,在實際應用中出現太多未登錄詞,會導致錯譯、漏譯等情況。目前,一些垂直領域資料稀少、語料不足,尤其是中文有幾千上萬個字符,其中很多是生僻字,這些都會影響模型表現及譯文的質量。

              要解決這一點,只能靠“笨功夫”積累數據。據有道詞典的技術人員表示,要做好中文識別沒有特別好的辦法,只能不斷的積累數據,迭代算法,有道在過去幾年做了大量工作。

              2. 算法優化與創新等待突破。

              不同語言文化的文字表達、邏輯結構、信息冗余度、語法結構都不同,存在大量“信息不對稱”,在“編解碼“過程中出現錯譯也就不足為奇了。

              《文化翻譯論綱》一書中提到,譯文等于“原文 + 原文化背景 + 譯文 + 譯文文化背景 + 原作者的氣質和風格 + 譯者的氣質和風格”的混合體。

              而要理解背后的文化、氣質、風格等“隱藏屬性”,只能通過技術迭代和創新來實現。比如有道允許用戶提供額外的自定義詞典,來精準調整神經網絡機器翻譯的局部結果,解決專有名詞的翻譯難題;

              業內也開始嘗試引入多模態翻譯,通過圖片中其他事物的特征來輔助理解文本。舉個例子,如果機器翻譯只看到 GATE 這個詞,可能會把它簡單的翻譯成“門”,但如果圖片中顯示這是一張機票或者背景是飛機場,那么翻譯為“登機口”就會更恰當。

              3. 細分場景適配沒有捷徑。

              隨著機器翻譯的普及,用戶對翻譯質量提出了更細分的要求,比如圖片翻譯時前置環節的少量識別錯誤可能帶來的級聯問題;網頁翻譯時不僅要提供正確的翻譯,還要盡可能保持原有網頁樣式的一致性;文檔翻譯時,人名、地名、組織機構名或專業術語可能多次出現,上下文如何保持一致;在配置較低的端側設備上,也要提供又快又好地翻譯體驗…… 不同場景下的各種問題,需要針對性地優化。

              就拿圖片翻譯來說,自然場景下的圖像識別十分復雜,往往在實驗室中效果很好,但用戶會在各種光照條件下,拍各種稀奇古怪的東西,識別完以后還需要判斷哪些詞屬于一個句子,哪些句子是一個段落,翻譯出來的結果應該如何呈現。據了解,有道也優化了很久,在算法側對翻譯模型做了魯棒性增強,即便在實際環境中遇到個別無法避免的文字識別錯誤,仍然有穩定的性能表現。

              從這個角度來說,圖片翻譯等新應用場景想要給用戶帶來體驗的顛覆式改變,需要的不僅僅是實驗室中的創新,還要關注并解決技術在應用場景中落地遇到的具體問題,來優化最終體驗,沒有捷徑可走。

              從被人類譯者驚呼搶飯碗的“妖術”,到閱讀學習娛樂場景中頻繁出沒的日常應用,神經機器翻譯技術落地現實的速度超出了很多人的想象。

              對于這些致用型技術來說,應用突破比理論突破要更簡單,也更急迫。這也是我們在此時想聊聊圖片翻譯這個“小”功能的原因。

              隨著全球往來的逐步重啟,以更自然實時的方式了解跨語種資訊越來越成為一種必然。圖片翻譯對于旅游出行、專業閱讀、無障礙人士觸網等都有著不可或缺的價值。這也是蘋果、有道等產業界力量的價值所在,通過來自現實環境的數據、互動與反饋,不斷迭代并推動神經機器翻譯的點滴進步。

              目前看來,蘋果 iOS15 的系統級圖片翻譯要取代專業翻譯軟件還為時尚早,事實上可以預見,未來兩者并不會相互替代,而是在各自適用的場景和不同需求強度下,相互補充,各擅所長。

              來自產業界的每一次實踐,都推動著技術向前一步。積沙成塔,終有一天,人類能翻越阻礙語言交流的“通天塔”。

              相關熱詞搜索: 圖片翻譯 功能 翻譯結果 文本

              上一篇:Facebook開源數據增強庫 有助于識別盜版圖文音視頻
              下一篇:智能汽車市場被分為四派 派系之間造車長短板不盡相同

              熱點話題

              熱點推薦

              頭條

              ? 国产亚洲综合色就色| 亚洲AV无码一区二区大桥未久| 亚洲色成人网站WWW永久四虎 | 日本亚洲高清乱码中文在线观看| 亚洲最大的成人网| 亚洲人成在线播放| 亚洲天堂一区在线| 亚洲女人初试黑人巨高清| 99人中文字幕亚洲区| 中文字幕亚洲精品| 亚洲第一页中文字幕| 亚洲永久中文字幕在线| 亚洲人成网网址在线看| 亚洲午夜在线一区| 色偷偷女男人的天堂亚洲网 | 2048亚洲精品国产| 精品国产日韩亚洲一区| 国产成人亚洲综合无码| 国产亚洲午夜高清国产拍精品| 久久亚洲国产精品123区| 亚洲色中文字幕无码AV| 国产亚洲一区二区三区在线| 久久亚洲精品成人777大小说| 亚洲国产国产综合一区首页| 亚洲一区二区三区高清| 亚洲欧洲日本国产| 亚洲综合一区国产精品| 日韩欧美亚洲中文乱码| 亚洲色偷偷狠狠综合网| 亚洲乱码一区二区三区在线观看 | 国产V亚洲V天堂无码久久久| 久久精品国产亚洲| 亚洲大香伊人蕉在人依线| 亚洲va在线va天堂va手机| 亚洲日韩精品国产3区| 免费观看亚洲人成网站| 亚洲综合AV在线在线播放| 亚洲av综合avav中文| 亚洲精品第一国产综合精品| 色噜噜亚洲男人的天堂| 日韩在线视精品在亚洲|