Google 搜尋改進, 更能理解查問內容

Google 搜尋不斷改進,最近就引入並成功應用一個新的運算模型,更能理解搜尋查問內容,從而提供更準確的回應。

由上年開始 Google 試行引進名為 Bidirectional Encoder Representations from Transformers (BERT) 的 NLP pre-training 模型技術。BERT 模型會考慮句子中每一個字跟前後其他字的關聯意思,這樣對於理解搜尋查詢十分有幫助。在一些較長如對話般的搜尋查詢,中間會夾雜了介詞如 to, for 等,使用了 BERT Model 後就能夠更完整準確理解搜尋查詢的真實意思。

Google 舉出了一些例子,展示應用 BERT Model 搜尋結果的不同。
第一個例子 2019 brazil traveler to usa need a visa,過往搜尋時 Google 會忽視了一間 to 字,並因應其他關鍵字比重而得出美國人前往巴西 Visa 相關的資訊,在 BERT Model 就能正確理解查詢內容應為巴西人前往美國。

Google Search BERT model

另一個例子,”for someone” 是查詢中重要的一部份。未應用 BERT Model 搜尋會忽視了 “for someone”,現在就能夠知道 “for someone” 在句子中的作用。

Google Search BERT model

雖然 BERT Model 是軟件運算上的改進,但亦需要硬件上配合才可。由於 BERT 運算更複雜,原本應用的硬件配置亦到達極限,所以 Google 亦應用 Cloud TPUs 去用於提供搜尋結果,以便用家可以更快獲得所需資訊。

BERT model 最初是用於英文上,在成功應用後 Google 已將 BERT 應用於其他語言,包括韓文, 印度語, 葡萄牙語等,並會陸續擴展至其他語言。

Source: Google Blog

發佈留言