醫學免疫學精要速覽_chatgpt算法變革

編者按:隨著大數據、大模型、算法技術不斷提升與發展chatgpt算法變革,“”引發新人工智能研究熱潮。生成式人工智能在法學理論、法律實務等領域引起法學學術圈關注與探討。 北大法律信息網(北大法寶)匯總摘編了2023年上半年法學核心期刊刊發的“”最新研究成果,共計20篇(按作者姓名拼音排序),以饗讀者。 北大法寶·法學期刊庫已設置“人工智能”“數字法治”相關專題分類,歡迎登錄北大法寶·法學期刊庫查閱更多人工智能、數字法治等相關研究成果!

來源 | 北大法寶法學期刊庫

作者:畢文軒(東南大學法學院;東南大學人權研究院)

內容提要:以為代表的生成式人工智能技術產生,在極大地提升人們工作效率的同時,也在相關領域帶來了諸多法律風險。這種風險具體表現為:數據使用風險、生成內容濫用風險、算法濫用風險以及其他風險。目前我國雖然已經初步具備了有關人工智能的基本治理框架,但相關的理論以及實踐仍在治理主體、治理規范設置、治理手段以及治理規則適用等方案上存在不足。生成式人工智能的出現,凸顯了科技進步迭代過程中產生的“破壞性創新”現象,這也倒逼我國當前的人工智能治理模式需要從回應型治理、集中型治理向敏捷型治理轉換。這要求我國在總體上堅持包容審慎的治理態度,具體包括從法律層面的制度構建、軟法規范層面的填補式風險治理以及通過監管沙盒實現敏捷型風險治理等三方面來完善現有的人工智能風險治理體系,在技術創新與風險治理之間尋求平衡,從而實現數字經濟的健康持續發展。

關鍵詞:生成式人工智能;風險規制;;敏捷型治理;試驗性監管

作者:陳全真(南京大學法學院)

內容提要:Web3.0時代,區塊鏈技術構筑的分布式網絡使得用戶開始掌握數據主權,網絡內容從生產到價值分配均歸用戶所有。但以為代表的生成式人工智能的出現,意味著散落于用戶手中的數據資源將再次聚集,其與下游互聯網平臺結合后將改變知識權威性的來源,生成式人工智能將會成為Web3.0時代的網絡集權工具,平臺權力再次走向中心化將成為可能。對于“平臺+生成式人工智能”可能引發的技術風險,不宜過早地實施外部法律控制,而是應當采取“技術先行”的方案,首先依靠技術手段予以內部優化,同時,在政策層面秉持包容審慎的態度,采取一種“邊發展,邊治理”的應對策略。

關鍵詞:Web3.0;生成式人工智能;;平臺;平臺權力;中心化

3.人機交互決策下的智慧司法()

作者:丁曉東(中國人民大學法學院)

內容提要:等人工智能技術在多個場景落地,在司法領域卻備受爭議,其根本原因在于司法具有鮮明的價值判斷特征。人工智能司法是一種“規范性科技”支持基礎上的司法,而非計算性科技或預測性科技技術本身。人工智能司法在裁判可接受性、信息整全、信息篩選、事實評估等方面有一定優勢;人機交互決策不僅可能,而且早已通過各類數據庫系統成為現實。不過,人工智能司法卻面臨規則僵化、人機決策權重如何配置、不同司法層級與不同部門決策趨同、算法黑箱決策等難題。應堅持人工智能司法的輔助性定位,堅持法官與檢察官的彌散性決策與主體責任制,允許不同司法機關對人機決策權重進行實驗性設置并開展實踐探索,堅守基于部門分工與審級分層的制衡決策,促進算法解釋的可問責性而非完全公開。智慧司法成功的關鍵,在于設計符合司法原理的人機交互決策制度。

關鍵詞:智慧司法;人工智能;算法;規范性科技;人機交互

作者:郭春鎮(廈門大學法學院)

內容提要:隨著大規模數據和算式的增長,以及算法的不斷優化。圍繞生成式AI的前景,存在著支持、反對、中立等不同態度,這些態度背后隱含著認知根源、經濟考量和權利思考。立足于法律3.0的融貫性治理注重國家法律、行政規制和技術方案之間的融貫,為治理生成式AI提供了思路和方向。融貫性治理中的“融貫”,既是規范性融貫,強調法律規范的內在一致性和統一性,也是整體性融貫,強調將技術方案融入規范,進而使得技術方案與不同層級規范和引領這些規范的原則與價值得以融貫。在面對以GPT為代表的生成式AI時,可以嘗試將AI和區塊鏈作為技術方案對其進行治理,也可以通過自我規制和外在約束培育建設“有道德的”AI,還可以通過“市場+規則”助力生成式AI的發展。生成式AI所涉及的法律問題在現有的法律體系框架內基本能得到有效應對,對于它帶來的現實、急迫且法律沒有明確規定的問題,可以進行融貫性治理。

關鍵詞:生成式AI;生成式預訓練模型(GPT);融貫性治理;法律3.0

5.生成式人工智能的三大安全風險及法律規制——以為例()

作者:劉艷紅(中國政法大學刑事司法學院)

內容提要:的橫空出世意味著人工智能的發展獲得全新動能,根據生成式人工智能從準備、運算到生成階段的運行機理,可以發現其中存在三大安全風險。針對生成式人工智能在準備階段的數據風險,應基于總體國家安全觀統籌使用國家數據,對政務數據進行合規監管,在個人數據的收集廣度上保持合規并以最小比例原則確定處理深度,以確保生成結論的真實性。針對生成式人工智能在運算階段的算法模型特點及算法偏見風險,應通過技管結合進行修正,完善技術標準并予以實質審查,建立自動化、生態化、全流程的動態監管體系。針對生成式人工智能在生成階段的知識產權風險,鑒于其生成物的獨特屬性,應基于可解釋性重塑其保護模式,明確保護的對象是中的可解釋算法及其生成物,并構建全流程知產合規保護體系。對于生成式人工智能在未來可能造成的其他安全風險,宜基于風險預防主義加以防范,爭取在最大程度上發揮生成式人工智能的技術效能,并減少新興技術對社會發展造成的負面沖擊。

關鍵詞:;生成式人工智能;合規制度;數據安全;算法偏見;知識產權

6.生成式人工智能應用失范的法律規制研究——以和社交機器人為視角()

作者:龍柯宇(西南政法大學民商法學院)

內容提要:以和社交機器人為代表的生成式人工智能是數據、算法和算力共同作用的結果,其能通過高效地改變網絡空間動態結構,從而引導、塑造和固化目標受眾的認知。技術中立的托詞無法為此類人工智能的應用失范進行開釋,作為一種內容生成技術,它的行為射程和效用狀態體現的仍然是背后設計者和使用者的主觀意志與價值選擇。對于生成式人工智能的法律規制,應秉持彰顯國家監管權力在場以及強化人之主體地位的理念導向,嵌入與推廣算法倫理,并正確處理技術治理與法律規制之間的關系,發揮兩者雙管齊下的集合效應。還應建構各利益攸關方的協同治理格局,傳統的行為規制模式也需轉向針對數據和算法的過程性規制模式,而網絡平臺則需通過合規機制,采取刪除、通知、標注、算法審計等措施,履行平臺應盡之監管職責。

關鍵詞:生成式人工智能;技術樣態;應用失范;過程性規制;平臺監管;

7.()

作者:商建剛(上海政法學院經濟法學院)

內容提要:生成式人工智能由算法與數據驅動,屬于深度合成技術,在國家安全層面存在引發暴力沖突、意識形態滲透風險,在社會層面存在數據壟斷、道德操縱風險,在私權利層面存在增加犯罪、挖掘用戶隱私等風險。然而,生成式人工智能的責任承擔機制不明、現有制度分散、不成法律體系;理論界尚未針對生成式人工智能治理進行專門研究,治理范式缺失。構建生成式人工智能風險治理體系,應構建生成式人工智能風險治理的元規則。從人工智能的治理原則視角切入,通過梳理不同國家、地區、組織、企業所構建的人工智能治理原則,提煉其共性,是生成式人工智能風險治理元規則形成的可行進路。生成式人工智能風險治理元規則由協同共治、提升透明度、保障數據質量以及倫理先行四個方面組成。

關鍵詞:;生成式人工智能;數據風險;元規則;算法;大型語言模型

8.()

作者:唐林垚(中國社會科學院法學研究所)

內容提要:既有規則的延伸適用和法律解釋足以應對在內容生成、數據保護、勞動替代方面的現實性“近憂”,但無法解決因其使動性和嵌入性引發的人類在現實世界、虛擬世界的生存性“遠慮”。界限日益模糊的人機關系重構須回歸具身認知;身體在主客之間的可逆性、在自我與他者之間的穿梭性揭示出關懷投射、和諧共融、互促互進的倫理規范。在當下面向,可通過部門法聯動、社會保障政策完善、反壟斷規則細化處置技術失范;在本土面向,宜依托舉國體制抹平數據飛輪效應、推進多方共治提升技術賦能、建立健全適應技術發展的教育體系;在未來面向,應以進展把控為目標完善通用人工智能立法,以內覺開顯為導向促進人機共生演化,以熵增減緩為原則構建全新硅基倫理。

關鍵詞:;生成式人工智能;大型語言模型;法律規制;硅基倫理;元宇宙

9.從進化到革命:類技術影響下的法律行業()

作者:王祿生(東南大學法學院)

內容提要:以為代表的大型語言模型與生成式人工智能技術因其聚焦語言運用和內容生成而與法律行業需求具有內在邏輯的契合性。隨著類技術在法律領域深度運用和相對均質地分布,法律知識將與時間積累“脫藕”而即時生成,法律知識粘性也將顯著下降并形成去中心化的分布式傳播格局。受上述法律知識范式進化與革命的影響,法律服務市場“去割裂化”的進程將有望加速,常規法律服務市場將可能先萎縮后穩定,非常規法律服務市場將得以擴大并兩極分化,科技公司可能成為法律服務市場的重要主體。法律服務市場的調整將倒逼法律職業群體的結構調整。初階法律職業群體日益去中心化與去技能化,高階法律職業群體則因技術賦能而享受服務溢價。下一階段,法律人需要通過主導法律知識驗證、法律知識創新與法律價值判斷的過程形成與之對應的知識權力與主體地位。在此基礎上,掌握架構法律提示的技術素養并打造“人在回路之上”與“人在回路之內”相結合的遞進式人機協同的法律業務流程。

關鍵詞:法律行業;;大型語言模型;生成式人工智能;法律服務市場 法律職業群體

10.(《政法論壇》2023年第4期)

作者:王祿生(東南大學法學院;東南大學人民法院司法大數據研究基地)

內容提要:21世紀以來,法律人工智能呈現出繁榮復興的景象。但火熱表象的背后,法律領域的語言復雜性、知識豐富性使得法律人工智能仍然面臨自然語義處理與知識生成的技術瓶頸。以為代表的大規模語言模型與生成式人工智能技術有望破除法律人工智能的自然語言理解瓶頸,極大提升技術互動性、生成性與嵌入性,推動法律人工智能與用戶形成剛需性、高頻率和高黏性的聯結。盡管如此,現有類技術的底層邏輯無法充分回應法律知識豐富性、嚴謹性與創造性的領域需求,流暢語言處理能力與相對較低知識生成能力錯配產生的知識完滿幻覺、知識權威幻覺與知識生成幻覺,制約了大規模語言模型與生成式人工智能的架構對法律人工智能的根本性顛覆。未來需要通過強化高質量多模態法律數據的供給并建構基于法律指令集的指令微調機制和基于法律人知識反饋的強化學習機制,克服“知識幻覺”以實現法律人工智能的進一步迭代。與此同時,在技術社會學意義上調適創新擴散與社會公正的張力,避免可及性與可用性兩個層面的數字鴻溝,真正實現全社會圍繞法律知識的新一輪賦權賦能。

關鍵詞:類技術;大規模語言模型;生成式人工智能;法律人工智能

11.再論人工智能生成的內容在著作權法中的定性(《政法論壇》2023年第4期)

作者:王遷(華東政法大學法律學院)

內容提要:著作權法以鼓勵創作為目的,只有人才能理解和利用著作權法的激勵機制,因此只有人的創作成果才能作為作品受到著作權法的保護,認為作品不必來自于人的“獨創性客觀說”不能成立。著作權法將作者之外的其他民事主體擬制為作者,前提是存在自然人創作的作品。以可將人工智能或其研發者、使用者擬制為作者為由,認定人工智能生成的內容為作品的觀點不合邏輯。人工智能的研發者和使用者均不能基于自由意志直接決定人工智能生成的內容,因此該內容并非由人類以人工智能為工具創作的內容。由于對人工智能生成的內容的利用有其不同于作品利用的商業模式,不將其認定為作品不會影響對人工智能技術的投資,也不會違反權利與義務相統一的理念。

關鍵詞:人工智能;;獨創性;創作

12.()

作者:魏斌(浙江大學光華法學院)

內容提要:新一代法律智能系統呈現出符號主義與聯結主義法律人工智能相融合的趨勢。以生成式人工智能為代表的智能系統由大數據驅動,采用機器學習算法挖掘法律文本大數據,在類案檢索、判決預測、法律文書自動生成等任務中表現良好,但面臨算法的不可解釋性等缺陷。法律邏輯學經歷了由傳統邏輯到現代邏輯的轉變,形成了基于規則和基于案例的法律推理模式,在法律專家系統中得到成功應用,其優點是推理的可解釋性,但面臨知識獲取瓶頸的挑戰。新一代法律智能系統的融合性道路表現在法律推理與法律文本大數據分析的融合,實現算法可解釋性和計算表現力的優勢互補。法律邏輯學的現代發展推動了人工智能可解釋性問題的解決chatgpt算法變革,啟發了“符號-神經網絡”的新方法,形成了法律大數據分析的符號化與可解釋法律論證挖掘的融合路徑。

關鍵詞:法律智能系統;法律邏輯學;法律大數據;;可解釋性

13.(《科技與法律》2023年第3期)

作者:吳昊天(西南政法大學民商法學院)

內容提要:的火爆讓人工智能的著作權問題再次回歸到人們的視野之中。目前對于人工智能創作物的討論并沒有觸及人工智能的“人在回路”交互運行系統的本質,在這一過程中,人工智能必須依靠人類的力量進行迭代與發展。“人在回路”的運行本質揭示了人工智能并非“獨立創作”,同時受制于人類輸入數據的行為和結果的審核與操控也無法進行真正意義上的創造性行為,所以很難具有著作權法意義上的獨創性。人工智能創作物并未失去成為作品的可能性,但是需要在現有著作權法體系下進行討論而不是單獨設定獨創性判斷標準,這就需要適用改良后的“合理人原則”這一相對客觀標準來保證標準一致性與彈性。在未來,人工智能創作物應當采取“三階段”保護策略以適應不同時期的具體發展情況。

關鍵詞:;人工智能創作物;獨創性;合理人原則;保護策略

14.論生成式人工智能服務提供者的法律地位及其責任——以為例( )

作者:徐偉(上海政法學院上海司法研究所)

內容提要:生成式人工智能行為在技術上的特殊性,對侵權責任帶來了一系列影響,包括行為主體的復雜化、加害行為的智能化、損害后果的不確定、因果關系的多元化和過錯認定的新穎化。生成式人工智能服務提供者并非搜索鏈接服務提供者,也不宜被認定為網絡內容服務提供者,而應是一種新型網絡服務提供者。生成式人工智能服務提供者過錯的認定需從生成維度的過錯和移除維度的過錯來分別加以判斷。在生成維度,生成式人工智能服務提供者對自動生成的內容原則上不負有事前審查義務;在移除維度,應基于事實層面生成式人工智能服務提供者是否能以合理的成本和較高的準確度來避免侵權內容的再次生成來決定其是否負有移除義務。鑒于技術仍處于快速發展中,生成式人工智能服務提供者侵權責任的判斷標準也需基于技術的發展而適時作出調整。

關鍵詞:生成式人工智能服務提供者;;算法;通知移除

15.()

作者:袁曾(上海大學法學院)

內容提要:以為代表的生成式人工智能投入規模化應用后,至少帶來創造性成果歸屬、意思表示能力確認、刑事犯罪規制、侵權損害救濟、數據濫用等多領域的現實法律困境。從傳統穩定的社會結構與數字社會新生風險兩個維度形成了治理困境,需要從責任的角度確定何種主體應為生成式人工智能技術的決策負責。生成式人工智能已經具備類人化意識與行為能力的基本形態,在擬制主體對人類經濟發揮巨大作用的現實借鑒下,可考慮由生成式人工智能自身承擔部分責任,但由于其責任能力的限制以及以人為本的倫理基礎,對該責任能力應當進行明確限定。通過“穿透人工智能面紗”的歸責原則以及相應的配套機制構建,促使發展“負責任的人工智能”成為符合人類共同利益的選擇。

關鍵詞:生成式人工智能;;預訓練生成式聊天模型;責任能力;法律人格;大型語言模型

16.( )

作者:於興中;鄭戈;丁曉東(澳門大學法學院;上海交通大學凱原法學院;中國人民大學法學院)

內容提要:是一種自然語言處理機器學習模型,是一種人工智能。它使用第三代生成式預訓練變換模型(GPT-3)來生成類似人類撰寫的文本,從簡單的聊天對話到編寫軟件代碼、生成文案和論文。采用基于人類反饋的強化學習(RLHF)優化了在與真人對話時充分考慮上下文和語境的能力,在很多時候可以以假亂真,讓使用者覺得是在跟真人對話。由于其性能遠超過去的所有聊天軟件和語音助手,所以自2022年11月公測之后,引發了全球的廣泛關注,已經成為一種現象級的應用。目前,各大網絡平臺尤其是搜索引擎,都將或類似的大型語言模型(LLM)作為全力研發的重點,比如谷歌()和必應(Bing)已經著手將大型語言模型內嵌于搜索引擎之中,使搜索變得更加智能化、互動化和語境化,這必將給互聯網生態帶來新一輪革命性的沖擊。

鑒于此,《中國法律評論》特邀澳門大學法學院於興中教授、上海交通大學凱原法學院鄭戈教授和中國人民大學法學院丁曉東教授,從法律角度深入討論如何應對帶來的挑戰,包括其對法律職業的沖擊,對法律思維的替代,在法律場景的應用,對知識產權和創新的保護,對平等問題和文化多樣性問題的影響,以及對算法歧視的應對,等等。希望法律界、科技界和產業界共同努力,構建一個打破界別、突破知識領域的共同體,引導人工智能向有利于人類福祉的方向發展。

17.()

作者:張凌寒(中國政法大學數據法治研究院)

內容提要:以、、元宇宙等為代表的深度合成技術與應用場景,極大地改變了信息獲取、人機交互的方式,并成為未來數字空間的基礎性技術。我國的深度合成治理已經走在世界前列,但仍主要停留在算法治理衍生出的信息安全層面,偏重服務應用監管而底層技術治理不足,偏重監管服務提供者但監管技術提供者尚不充分,數據與場景分級分類標準繁雜但并未形成有機體系。深度合成治理應在算法治理基礎上延伸迭代,將深度合成作為人工智能治理的專門領域,同時通過頂層設計推進基礎性人工智能立法,既保障急用先行,又可探索并形成通用人工智能立法的經驗。既應發揮中國既有的深度合成治理優勢,根據生成型人工智能技術特點更新監管邏輯,基于生成型人工智能技術的通用性實施全鏈條治理;同時還需立足現行法規中分級分類治理架構,結合技術、產業和應用建立有機體系和設置具體規則chatgpt算法變革,以形成在全球更具影響力的深度合成治理法律制度體系。

關鍵詞:深度合成;生成型人工智能;;分級分類標準;技術治理

作者:張欣(對外經濟貿易大學法學院)

內容提要:以為代表的大規模預訓練語言模型日益展現出通用潛力,其超大規模、超多參數量、超級易擴展性和超級應用場景的技術特性對以算法透明度、算法公平性和算法問責為內核的算法治理體系帶來全方位挑戰。在全球人工智能治理的主流范式中,歐盟形成了基于風險的治理范式,我國構建了基于主體的治理范式,美國采用了基于應用的治理范式。三種治理范式均形成于傳統人工智能的“1.0時代”,與展現通用潛能的新一代人工智能難以充分適配,并在不同維度凸顯治理局限。因此,在人工智能技術范式變革之際,應以監管權的開放協同、監管方式的多元融合、監管措施的兼容一致為特征推動監管范式的全面革新,邁向面向人工智能“2.0時代”的“治理型監管”。

關鍵詞:;生成式人工智能;算法治理;治理型監管

19.生成式人工智能大模型的信息內容治理( 《政法 論壇》2023年第4期)

作者:支振鋒(中國社會科學院法學研究所)

內容提要:以大算力為基礎,用強算法處理海量大數據,生成式人工智能大模型在自然語言處理、計算機視覺、語音處理等領域表現優異,已經能夠提供內容創意生成、數字人、對話搜索、代碼生成等服務,在自動駕駛、金融風控、醫療保健、物聯網等領域也極富應用前景。作為一項互聯網信息技術的重大變革,大模型的邏輯推理能力以及對人類的“理解能力”極大提升,不僅成為人類生產創意性信息內容的強大工具,也可能極大地改變網絡信息內容生態,帶來劣質信息泛濫、初始信源被污染和沖擊社會倫理等信息內容風險,需要平衡發展與安全,探尋激勵相容的治理之道。

關鍵詞:生成式人工智能;大語言模型;信息內容;激勵相容;治理

作者:周維棟(中共中央黨校[國家行政學院]法學流動站;中共中央黨校[國家行政學院]政治和法律教研部)

內容提要:類案裁判的可普遍化標準是智能化類案推送的理論前提,司法機關只有充分發揮開放型基本權利體系中的主體、行為和法益要素的解釋機能,將其作為個案中規范與事實勾連的比較要點,才能實現類案裁判的可普遍化。生成式人工智能技術通過深度學習來建構類案推理的標準化模型,能夠促進類案裁判的可普遍化。在事物的本質思維指導下,遵循以基本權利為中心的算法解釋路徑,提取案件的比較要點形成結構化的類案知識圖譜,可以建立司法類案裁判的可普遍化標準體系。普遍適用的類案標準可能與個案特殊價值相矛盾,而人工智能技術是基于相關性的形式推理,缺乏法律推理結果的因果性考量,難以對個案中的實質性道德理由進行價值權衡。當出現個案權利需要特別保護的更強理由時,法官需要基于實質正義的裁判立場,對個案特定事實差異、社會背景事實變遷和法律擬制事實變化進行充分裁量,維持普遍正義與個案正義的平衡。

關鍵詞:生成式人工智能;類案同判;類案裁判標準;價值權衡;個案正義;智慧法院

責任編輯 | 王睿 范阿輝

審核人員 | 曹偉 張文碩

本文聲明丨本文由北大法律信息網(北大法寶)原創整理,轉載請注明來源。

免責聲明:本文系轉載,版權歸原作者所有;旨在傳遞信息,不代表本站的觀點和立場和對其真實性負責。如需轉載,請聯系原作者。如果來源標注有誤或侵犯了您的合法權益或者其他問題不想在本站發布,來信即刪。