2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。
ChatGPT迎來市場大火,大模型應用落地有了新領域,國內企業紛紛選擇進入大模型研究領域。隨著大模型的不斷發展,但是也出現了各種各樣的安全隱患,比如內容安全,隱私保護,侵權以及結果合法性等等。在大力發展科技的同時,是否需要給大模型裝上“紅綠燈”來規范科技向善?

國內的各個大型互聯網公司已經進入大模型研究領域,AIGC受到的追捧熱度越來越高,國內企業的大模型布局也紛紛嶄露頭角。何曉冬在接受《通信產業報》媒體記者采訪時表示:“多模態大模型是人工智能技術從限定領域的弱人工智能邁向通用人工智能路徑的重要途徑。通用多模態大模型將逐漸在人工智能領域扮演著基礎模型的角色。”

大模型本身還存在著技術挑戰以及不完善等各種問題,但是在當前大環境的影響下,已經展現出了強大的威力。對于科技行業的各種治理帶來了各種不好的影響,比如可能會泄露用戶的數據隱私,做出各種各樣的侵權行為等等。

何曉冬表示:“隨著人工智能應用的深入其自身的技術缺陷以及帶來的隱私倫理,決策偏見,使用安全等問題,引發了信任危機。黑箱模型導致算法不透明,使得人們無法直觀理解決策背后的原因。應用上訓練數據中存在的偏見導致公平性缺失,以人臉識別技術為代表的生物識別信息的頻繁使用增加了隱私泄露的可能。倫理上人工智能系統決策復雜,難以界定責任主體,帶來倫理安全問題。”
針對這種情況廉世國表示:“人工智能領域的專家們已經開始考慮用技術手段來鑒別AI生成的內容。”
2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創”外所有信息均轉載自互聯網 版權歸原作者所有。