面對ChatGPT的強勢發展,科技領頭羊的Google勢必不缺席這場AI大戰。今年2月Google推出了實驗性的對話式 AI 服務Bard來應戰,很快的又在今年七月擴大支援繁體中文在內的 40 種語言,而團隊的靈魂人物就是來自台灣的科學家紀懷新,同時也是YouTube推薦系統的團隊領導人,目前為止已經解決Google 產品帶來超過 720 項改進。
我是廣告 請繼續往下閱讀
來自台灣的科學家紀懷新博士,其率領的 Google DeepMind協助推出實驗性的對話式 AI 服務 ─ Bard,並從 2013 年起為 YouTube、Google 新聞、廣告、Google Play 商店等 Google 產品帶來超過 720 項改進。紀懷新提到Google發展並落實 AI 技術應用超過十年,有不少重大的發展,近期推出實驗性對話式 AI 服務 Bard受到關注。
紀懷新表示, 2023 年 2 月 Bard 成為 Google AI 的一份子,於 3 月以實驗性質於美國 與英國推出以 LaMDA 為基礎打造的對話式 AI 服務,開放部分使用者體驗。 5 月在 I/O 大會上宣布將 Bard 移植到更強大的大型語言模型 ─ PaLM 2 上,並宣布增加服務支援地區,並加入深色模式、更簡明扼要的資訊總結、內容來源標註、新增圖片回應(目前僅支援英文)等。
Bard功能持續進化,到6 月持續強化 Bard 的運算表現及整合能力,新增提供位置資訊、匯出至 Google 試算表等功能,並展現數學運算和資料分析能力。上(7)月Bard 推出大型更新,支援包含繁體中文在內超過 40 種語言,並新增六項全新更貼近個人化需求,包含:聆聽回覆、固定並重新命名對話、擴增匯出程式碼選項、分享回覆、回應風格和語氣調整等,幫助使用者更有效率完成任務。
我是廣告 請繼續往下閱讀
紀懷新指出,大型語言模型發展仍處於早期階段,並存在已知限制,他認為有5點:
準確性:大型語言模型的回應可能未必準確,尤其當詢問複雜或講求事實的主題時。
偏差性:大型語言模型的回應可能反映偏見或呈現訓練資料中的特定觀點。
人格化:大型語言模型的回應可能會讓人以為它有個人意見或感受。
偽陽性 / 偽陰性:大型語言模型可能對某些適合的提示不予回應,並提供不適合的回應。
惡意提示的刻意攻擊:使用者將持續尋找對大型語言模型進行壓力測試的方法。
Google 與整體產業也持續透過研究尋求改善,致力發展 AI 相關技術與應用,將持續與政府機關、企業、大專院校等多方合作交流,共同研擬相關做法和標準,在運用科技的突破性持續發展,同時設法降低風險。