在數字化浪潮的推動下,人工智能(AI)已成為科技創新的前沿陣地。2024年5月27日至6月2日,盈科舊金山執行主任劉升中陪同“2024博商美國硅谷斯坦福-創新AI研學之旅”考察團,深入硅谷,與頂尖企業和學術機構進行了為期一周的深度交流和考察。
活動內容 (圖為斯坦福大學正門) Barry Katz教授 霍夫曼 考察活動從斯坦福大學開始,Barry Katz教授向企業家們傳授了硅谷創新思維在組織中的應用。斯坦福大學作為硅谷的搖籃,孕育了惠普、谷歌、優步、OPEN AI、英偉達等眾多科技巨頭,其成功秘訣在于“產研結合”。課程結束后,Founders Space創始人霍夫曼的演講“投資人眼中的AI最新趨勢以及硅谷風險投資用來挑選獨角獸的標準”以生動的案例和翔實的分析論證了AI的巨大發展前景以及可能的成長路徑。 (硅谷及其全球知名的科技創新企業)
首席科學家Mr. Kai Liu 5月28日,考察團訪問了微軟硅谷公司,首席科學家Mr. Kai Liu分享了微軟的AI戰略和AZURE AI產品。微軟通過創建負責任的AI工具、擴大RAI團隊、發布透明度報告等措施,致力于AI技術的健康發展。 Naeem zafar教授 5月29日,考察團來到位于灣區南部的plug and play silicon valley room,伯克利大學的Naeem zafar教授以動畫形式展示了AI技術的前瞻性,并有6家硅谷AI明星企業進行了創業idea的現場展示和交流。 劉升中主任 谷歌AI副總裁Bill Jia 5月30日,OPEN AI原研究員Kenneth Stanley教授帶來了一場關于創新思維的頭腦風暴。下午,谷歌AI副總裁Bill Jia介紹了GEMINI技術及DeepMind產品Project Astra,展示了AI在多模態領域的廣泛應用。5月31日,英偉達核心技術人員和META首席科學家/產品經理分別就各自公司的AI技術和產品進行了深入講解。英偉達的Blackwell GPU和META的Llama 3大語言模型,標志著AI技術在產業革命中的重要作用。 劉升中主任與微軟負責人合影(左二) 考察團在緊張的考察之余,也體驗了APPLE PARK的VISION PRO和最新產品,并在蒙特雷海灘留下了美好回憶。盈科舊金山執行主任劉升中全程參與了此次考察,與科技精英和專家學者進行了深入交流,為考察團成員提供了創業、投資及知識產權的法律解答,并建立了與企業家和學術界的友誼與聯系。 “盈科全球一小時法律服務生態圈”為全球客戶提供包括法律、會計、稅務、咨詢、知識產權、資產管理、投融資、并購、商賬管理、ESG等專業服務,覆蓋基礎設施、能源、貿易、農業、礦業、文化旅游、體育、科技創新、數字經濟、教育、產業園區、房地產、新材料、大健康、電子信息技術、金融、政府招商等產業領域,并實現客戶需求在一小時內與全球范圍的專業服務團隊對接。 盈科舊金山秉持“提供機會、促進交易、創造價值、解決問題”的服務方針,致力于搭建全球科技與法律服務的橋梁,依托盈科全球一小時法律服務生態圈,為全球客戶提供跨地域、跨語言、跨文化、跨領域的一站式綜合服務。與客戶共同探索AI科技創新的無限可能,共創科技與法律服務的美好未來。
深度思考 從最初的機器學習到現在的生成式AI,AI技術正在快速爆發,也在不斷拓展其能力和應用領域。如何看待AI?如何與Ai伴舞?如何評價 AI的風險?以上三個問題,引起了我的思考,作為“盈科全球一小時法律服務生態圈”的參與者與建設者,我從法律層面談談我對AI現象的看法。 (一) AI帶來的法律問題 1、倫理風險:如果訓練數據有偏見、信息誤導、信息濫用以及對個人自主性的干預,算法和模型也會有偏見,從而導致生成式人工智能的回應和建議出現歧視性的結果。 2、侵權風險:不法行為人有可能通過攻擊大規模語言模型,提取出訓練數據中的核心隱私和敏感個人信息,從而導致個人信息、隱私的大規模泄露,形成“大規模微型侵害”的現象。 3、責任歸屬問題:當AI系統做出錯誤決策或造成損害時,確定責任歸屬是一個復雜的問題。 4、透明度問題:許多AI系統,尤其是深度學習模型,其決策過程往往是“黑箱”,缺乏透明度和可解釋性。 5、階層固化問題:與人類歷史上的其他任何時期相比,這種信息技術有可能造成更大的收入差距,催生大量的“無用階層”。 6、能源消耗;隨著人工智能已經成為國際競爭新的焦點,大模型對算力的巨大消耗也對低碳轉型目標的實現帶來新的挑戰。 (二) AI的監管要求及合規方向 1、AI要符合現有監管要求 (1)數據最小化,僅收集完成任務所必需的數據; (2)透明度,清晰地告知用戶其數據如何被收集和使用; (3)數據主體的權利,確保用戶能夠訪問、更正和刪除其個人數據; (4)數據安全,采取適當的技術和組織措施保護數據不受未經授權的訪問或泄露。 2、AI的未來合規方向 (1)制定AI特定的法規,需要新的法律框架來專門監管AI技術,確保其符合倫理和法律標準。 (2)增強透明度和可解釋性,要求AI系統開發者提高其系統的透明度和可解釋性,使其決策過程更加清晰。 (3)跨學科合作,法律專家、技術專家和倫理學家需要合作,共同制定合理的監管措施。 3、法律的滯后性及價值 (1)法律來源于生活,并服務于生活,但最終高于生活。 (2)創新可以突破法律的束縛,但不能無視法律的存在。 (3)AI帶來的大量知識產權糾紛需要“盈科全球一小時”法律服務。 (三) 全球AI立法現狀 2023年7月13日,國家網信辦聯合國家發展改革委、教育部、科技部、工業和信息化部、公安部和廣電總局公布《生成式人工智能服務管理暫行辦法》,自2023年8月15日起施行,成為全球第一部關于生成式人工智能治理的專門法律規范,與《網絡安全法》《數據安全法》《個人信息保護法》《科學技術進步法》等上位法律,以及《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》等形成關于生成式人工智能服務的立體規則體系。要求主要有以下幾點:(一)在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中,采取有效措施防止民族、信仰、國別、地域、性別、年齡、職業、健康等歧視,強調在數據治理中防止偏見和歧視;(二)使用具有合法來源的數據和基礎模型,涉及個人信息的,應當取得個人同意或者符合法律、行政法規規定的其他情形,同時提高訓練數據的真實性、準確性、客觀性、多樣性以及對標注人員進行必要培訓等;(三)支持行業組織、企業、教育和科研機構、公共文化機構、有關專業機構等在生成式人工智能技術創新、數據資源建設、轉化應用、風險防范等方面開展協作,推動生成式人工智能基礎設施和公共訓練數據資源平臺建設,促進算力資源協同利用等。 2024年3月12日,歐盟議會通過《人工智能法案》(AI Act)后,歐盟正在為快速發展的人工智能領域制定最全面的保護和管理機制。這項全新的法律旨在解決人們對這種快速發展的技術帶來的偏見、隱私和其他風險的擔憂。該立法將禁止在工作場所和學校使用人工智能來檢測情緒,并限制人工智能在篩選工作申請等高風險情況下的使用范圍。它還將對生成式人工智能工具施加全球第一個法律層面上的限制。 美國目前沒有任何關于AI的實質性立法。 作者信息 劉升中 盈科舊金山執行主任、盈科廣州權益合伙人、中國律師 TEL:1(415)335 1720(美國) 13926883429(中國) E-MAIL: liushengzhong@yingkelawyer.com
Copyright ? by Copyright By 2013 - 2024 MOUMOU LAW OFFICE 北京市盈科(呼和浩特)律師事務所
地址: 呼和浩特賽罕區烏蘭察布東路58號內蒙古自治區供銷合作社聯合社大樓3層 電話: 0471-6378086
服務熱線
0471- 6378086
0471- 6378086
微信號
掃碼關注我們
返回頂部