龙听期货论坛's Archiver

C
+
+


 微信: QQ:

龙听 发表于 2018-5-4 16:37

使用 AI 来替代人类律师?抱歉,这样会更不公平

[attach]3662[/attach]
g-Wc_d m 9uh#w l/^
编者按:技术正在重塑社会经济的各个领域。法律也不例外,自2010年以来,风投对法律技术的初创企业投资总额已经达到了15亿美元,很多人都寄望没有偏见的技术能给法律带来最公平的结果,践行法治而不是人治的理想。但最近包括AI的实践表明,技术并没有弥补这种不平等,相反似乎却加剧了不平衡。专栏作家,《The Know-It-Alls》作者Noam Cohen在The New Republic的一篇文章因此提出,公正的应用并不存在。
W#D%U;Y1G5^'o`
1hw]FAk3\ "nQKT4Ywk$Q
ouJ G9N2_1@f3No*n |
回到1980年代,在美国人开始担心算法将统治自己生活之前,社会学家和心理学家Sherry Turkle让一群MIT的学生思考过一个问题:如果遇到一位计算机法官的话他们会怎么想?这会不会是盲目的正义——在任何情况下一个真正无偏见的大脑都能推断出最公平结果?还是说这是台毫不留情地维护自身权威的机器?#^k+_6_$VmqF)h)I"V

AEw\`F Turkle发现学生的响应因种族而异。白人学生一般都很谨慎。一位对她的《Life on the Screen(虚拟化身)》评价说:“法官必须对面前这个人的特殊情况具备同情心。计算机永远也不能形成这种品质。”学生中的非洲裔美国人看法就不一样,不是因为他们对计算机的信心更强,而是因为他们了解拥有权力的那个人。他们告诉Turkle,计算机法官“不会看到一张黑人的脸就假定他是有罪的。它不会看到一张黑人的脸就给出更严厉的判罚。”
PtA.ap
L]DUc z#I 他们不是看到法律技术前景的第一批人。自从人工智能在1950年代兴起时法律就引起了研究人员的注意。在1973年跟人工智能的质疑者,MIT计算机科学教授Joseph Weizenbaum的一场辩论中,斯坦福研究学者John McCarthy被问到“我们最终无法告诉计算机的东西法官又能知道什么?”他用重重的语气回答道:“什么都不知道。”西北大学法律教授Anthony D’Amato在1977年的一篇法律评论文章中说,计算机法官的想法如果不是崇高的目标的话,也是一个值得赞赏的目标——有机会实现美国作为一个国家靠“法治而不必是人治”的想法。6] X9an ew,z7x

}*SeDj^$W[ 自从2010年以来风投资本对法律技术初创企业的投资额:
6W0alkOX2yP T9r0J~i
15亿美元,610笔交易
+`[!VcWs'n ;A0C} |orO
可惜的是,仍然还没有机器人法官。相反,一开始雄心勃勃将要实现乌托邦的硅谷研究最终变成了实用的、以市场为基础的技术。美国目前至少有600家法律技术初创企业,其中很多都在利用AI来组织破产申请,寻找新的专利申请,还有更通用的,通过展示过去法庭判决、法律以及法律依据之间的关联,帮助律师为客户进行最有力的辩护其中一些最有前景的初创企业——比如法律研究与分析公司Ravel Law。这是一家2012年在斯坦福法学院学生宿舍构思出来随后融资了1400万美元风投的公司——这家公司已经被法律数据库与搜索巨头Westlaw 和LexisNexis收购了(去年Lexis买下了Ravel,但价格并未透露)。
fExe NHU:f yS&c-^W)l B*|
问题是这些新的法律技术初创企业究竟是会减少不平等还是会放大不平等。令人担忧的是,在其他领域,AI似乎加剧了不平衡。正如Safiya Umoja Noble 在她的《Algorithms of Oppression(压迫的算法)》一书中披露那样,Google搜索结果上的种族偏见导致了信息流的不平等;机器人技术进步消灭了劳动阶级及以上阶层等的工作。如果应用到法律领域的话,可能会产生严重后果。
Bc n3{X;t0Q
M3n3jfX6C 当初的研究7年后,Turkle又回到了那个计算机法官得到问题,结果令人震惊。到1990年,少数学生已经意识到了计算机往往会内化人类偏见,一位学生告诉Turkle,现在他们相信计算机法官会“带有真正法官身上所有那些恐怖的成见。这不会改善现状,而是会冻结不好的现状。”今天的法律研究初创企业可能也会造成同样的风险,有可能会永久性地,甚至会加剧美国法律体系的不平等。
,G;`'`-[`9e :WyuN^0b:AJ0Z
这种情况以前就发生过。成立于1970年代的Lexis与 Westlaw都是当时的初创企业,通过技术创新提供了对法律研究新的访问途径,并且把走访法院和法律图书馆数日的行程变成了可在桌面片刻完成。但这些属于昂贵的服务,给已经不菲的法律实践又增加了一层费用——并且赋予更有钱的机构相对更穷的那些又多了一项优势。
}'w@ N(?0J.T N,F/h }Ysa$PF:iov,W
今天的法律似乎已经为这些更新的技术公司所承诺的所谓颠覆做好了准备。一直在跟踪法律技术进展情况的麻省律师Robert Ambrogi说:“法律体系并不能满足那些它有意服务的群体的需求。”
+F4|9iNO
$\B;s M8XFI j 近年来,算法性法律工作在发现、法律案件相关的文档交换方面的势头最猛。这个劳动密集型的过程会牵涉到在一堆文档中的搜索关键词或者在成千上万封电子邮件中寻找特定的收件人。由人来做这件事情无疑可以带来意外发现,但是这种做法也是非常低效的。像Blackstone Discovery、Everlaw和GoldFynch这样的公司已经把它变成了一个基本上是自动化的流程,减少了对特定类型人工的需求——在一桩大案前筛查文档的律师帮办。计算机也许更擅长这些任务,而且绝对要便宜得多。但这种转变意味着法律机构为帮办提供的底层工作变得更少了,而那些从业者又往往是女性——相当于加剧了其本身的不公平。
4Tx*m\[G F"@*z y^'S*m
当然,那些初创企业并不会这么看。他们提出,他们的工具通过消除引证了错误的案子或者误解了相关法律这样的人类错误而改进了法律实践。2012年成立的初创企业Judicata的CEO Itai Gurari说:“效率和正义是紧密相关的。”!L _o1S9jR)p hz#E
}6N5?`.V(hE xe
法律和司法判决现在要取决于有着最佳算法和最大计算机的人。
%Q3\f i+`W \%V4~5PH1f? g+Rx
Judicata的软件能够做法律帮办做不了的事情:它会用大数据的精度分析法官及其判决,利用庞大的信息池帮助回答特定问题。法官倾向于支持哪一方,是辩方还是原告?当他跟另一名法官在一起时又会如何断案?针对特定类型的案子会不会站在辩方这边?软件会推荐最有效的判例,同时还会检查诉讼案件摘要有没有错误。最后,Judicata还有一套对案件摘要的评分系统,可以预测一项证据胜出的可能性。用科学确定性的语言来说,其创始人把这个叫做“法律基因组映射”。
]7`5R)g%X4D`&eh -g1Tc,j:o
这种做法也许有帮助而且听优雅,但它对法律体系的改进比不上破坏。诚然,成功的律师往往会分析所面对的法官的倾向性。很多甚至试图在被认为更同情其论证的巡回法庭去受审。比方说,去年检察长试图推翻特朗普当局的旅游禁令,希望案子在管辖范围为美国西部更倾向自由主义的第9巡回法庭受审;在奥巴马当政期间,律师则选择在相对保守的德州北区挑战他的政策。f8\r"? l;zY$M:H7{w^5_

/td ^;B;uOF 新的法律初创企业只是通过AI将这一流程机械化了——但结果是法律和司法判决要取决于谁拥有最好算法和最大的计算机了。这关系很大。没有计算化投资建议你也可以进行股票投资——上百万人都可以——但是散户没法跟拥有优化算法寻求套利机会的机构竞争。当技术变成精英法律机构利用的武器时,法律也许会进入到一个新的危险阶段。(Ez5Ku7Q(T'U'\
#|hj$| OGh
原文链接:[url]https://newrepublic.com/article/147795/theres-no-app-justice-silicon-valley-startups[/url]

页: [1]