人工智能應在發展中深度治理
4月11日,國家互聯網信息辦公室就《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《征求意見稿》)向社會公開征求意見。《征求意見稿》提出,提供生成式人工智能產品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗,禁止非法獲取、披露、利用個人信息和隱私、商業秘密。
隨著ChatGPT火爆市場,大眾對生成式人工智能技術的認知程度不斷提升,眾多投資涌入人工智能行業,一時間,ChatGPT以及相關產業站在了投資風口,人工智能的發展和應用正成為推動全球經濟增長的重要力量。
然而,潛在發展與應用機遇的井噴也帶來諸多風險隱患。例如,目前已經出現了人工智能模型及其服務侵犯用戶個人隱私的案例、虛假信息被用于網絡詐騙和網絡犯罪、人工智能內容生成甚至會對危險行為的實施提供建議等……業內專家擔憂,模型的不可解釋性、算法和硬件的不可靠性、自主意識的不可控性,使得人工智能內容生成面臨的風險更加不可控。
人類需要科學技術,科學技術是推動人類社會發展的強大動力。人工智能作為一種新興的技術,有很大的潛力和應用前景,尤其是在醫療、交通、金融、教育等領域的應用,為我們帶來更多的便利和改變。但同時,我們也需要研究和探索人工智能的安全性和可靠性,在發展人工智能內容生成技術的同時,對人工智能領域進行深度治理。
安全可信是人工智能治理的核心訴求。打造安全可信的人工智能,要求其技術和系統應具有強健的安全性能,避免因異常操作和惡意攻擊而導致安全事故,而利用人工智能技術生成的內容也應當真實準確;同時,用于訓練人工智能的數據是機構和個人的核心資產之一,要保護用戶數據不被泄露,保護好用戶隱私,及時處理工具漏洞;人工智能技術、產品的行為和建議應當是可解釋的。