l- B; C! c+ t1 ]编者按:技术正在重塑社会经济的各个领域。法律也不例外,自2010年以来,风投对法律技术的初创企业投资总额已经达到了15亿美元,很多人都寄望没有偏见的技术能给法律带来最公平的结果,践行法治而不是人治的理想。但最近包括AI的实践表明,技术并没有弥补这种不平等,相反似乎却加剧了不平衡。专栏作家,《The Know-It-Alls》作者Noam Cohen在The New Republic的一篇文章因此提出,公正的应用并不存在。0 c3 A. V- y# e! E w
8 `' t6 L& i& r0 h
& p2 d3 V$ p# ^6 C3 S: Y5 r) |/ V $ R' W5 {3 q @ C回到1980年代,在美国人开始担心算法将统治自己生活之前,社会学家和心理学家Sherry Turkle让一群MIT的学生思考过一个问题:如果遇到一位计算机法官的话他们会怎么想?这会不会是盲目的正义——在任何情况下一个真正无偏见的大脑都能推断出最公平结果?还是说这是台毫不留情地维护自身权威的机器? $ ~! o4 n9 b" s' j 1 O1 F* v( Y, H, X/ i2 l7 d( sTurkle发现学生的响应因种族而异。白人学生一般都很谨慎。一位对她的《Life on the Screen(虚拟化身)》评价说:“法官必须对面前这个人的特殊情况具备同情心。计算机永远也不能形成这种品质。”学生中的非洲裔美国人看法就不一样,不是因为他们对计算机的信心更强,而是因为他们了解拥有权力的那个人。他们告诉Turkle,计算机法官“不会看到一张黑人的脸就假定他是有罪的。它不会看到一张黑人的脸就给出更严厉的判罚。” 9 X4 P$ J/ X1 a / f' t+ Q2 j: G. q3 H0 i: X1 F' j他们不是看到法律技术前景的第一批人。自从人工智能在1950年代兴起时法律就引起了研究人员的注意。在1973年跟人工智能的质疑者,MIT计算机科学教授Joseph Weizenbaum的一场辩论中,斯坦福研究学者John McCarthy被问到“我们最终无法告诉计算机的东西法官又能知道什么?”他用重重的语气回答道:“什么都不知道。”西北大学法律教授Anthony D’Amato在1977年的一篇法律评论文章中说,计算机法官的想法如果不是崇高的目标的话,也是一个值得赞赏的目标——有机会实现美国作为一个国家靠“法治而不必是人治”的想法。 7 h; E, m- M4 D( E ) B0 B0 z' S* F2 R; O1 r自从2010年以来风投资本对法律技术初创企业的投资额: ' T$ m/ h; b. x; X& X: l ) K8 J8 R5 C1 _+ S+ P6 a15亿美元,610笔交易 $ ]: U# [- P9 J * r% h% c" |* M$ ?1 {可惜的是,仍然还没有机器人法官。相反,一开始雄心勃勃将要实现乌托邦的硅谷研究最终变成了实用的、以市场为基础的技术。美国目前至少有600家法律技术初创企业,其中很多都在利用AI来组织破产申请,寻找新的专利申请,还有更通用的,通过展示过去法庭判决、法律以及法律依据之间的关联,帮助律师为客户进行最有力的辩护其中一些最有前景的初创企业——比如法律研究与分析公司Ravel Law。这是一家2012年在斯坦福法学院学生宿舍构思出来随后融资了1400万美元风投的公司——这家公司已经被法律数据库与搜索巨头Westlaw 和LexisNexis收购了(去年Lexis买下了Ravel,但价格并未透露)。5 q& t2 d/ k. V5 L4 W
3 Q$ d* j, g& {* D. ?+ V5 e问题是这些新的法律技术初创企业究竟是会减少不平等还是会放大不平等。令人担忧的是,在其他领域,AI似乎加剧了不平衡。正如Safiya Umoja Noble 在她的《Algorithms of Oppression(压迫的算法)》一书中披露那样,Google搜索结果上的种族偏见导致了信息流的不平等;机器人技术进步消灭了劳动阶级及以上阶层等的工作。如果应用到法律领域的话,可能会产生严重后果。# A( R U" z; V* X* `