热点新闻
浙江大学光华法学院“先锋学子”培训计划辅导报告暨学科汇聚计划之双脑计划论坛举行
发布者:楼梦琳  发布日期:2019-05-24 点击次数:333

2019524日下午,浙江大学光华法学院“先锋学子”培训计划辅导报告暨学科汇聚计划之双脑计划论坛在之江校区小礼堂举行。此次论坛由浙江大学光华法学院、计算机学院、马克思主义学院主办,人工智能省部共建协同创新中心(浙江大学)、光华法学院“人工智能与法学”创新团队、之江青年法治建设与制度创新研究中心、浙江省之江青年法学组共同承办。

论坛主题为人工智能与伦理学、法学对话,计算机学院副院长吴飞教授、马克思主义学院副院长张彦教授、光华法学院常务副院长周江洪教授共同主讲本次论坛由光华法学院副院长赵骏教授主持。

吴飞教授从计算机科学角度探讨人工智能。他谈到,大数据智能是从最优解(数据拟合)到均衡解(博弈对抗)的过程。人工智能算法如何识别出一张狗的照片?输入图片像素点,通过机器训练、学习,用大数据调节参数,“大变戏法”,最终输出的是狗,这个过程就是数据拟合,不停地调参以使模型达到最优解。而博弈并非如此。博弈是两个或多个带有任务、利益的阵营体,相互决斗以达到平衡状态,这就是均衡解。所谓两害相权取其轻,两利相权取其重,博弈中双方都想获得利益,让对方损失,博弈的稳定局势即为纳什均衡,指的是参与者所作出的这样一种策略组合,在该策略组合上,任何参与者单独改变策略都不会得到好处。囚徒困境、古巴战争危机都是纳什均衡的现实案例。博弈对抗的趋势是从完全信息到不完全信息,从集中式结构到分布式结构,从优化思维到均衡思维。吴飞教授随即讲解了从AlphaGoAlphaGo Zero(元),是如何体现博弈对抗的。

张彦教授探讨了人工智能与伦理的关系。她讲到,我们在讨论人工智能的伦理挑战问题时,需要确定三个前提。第一个前提是对人的界定问题。伦理学上对于人的界定存在不同观点,有观点认为人文性、社会性是人的基本属性,但人工智能也可以通过模拟、习得来复制。通过对人的界定,可以确定不同伦理主体。第二个前提是技术问题。人工智能是一项复杂的、缺乏稳定性的技术,存在一定的风险性。目前人类对人工智能的技术了解还是偏向功能性了解。第三个前提是对技术的规范问题。早在1942年,阿西莫夫就提出了“机器人三定律”。但对于人工智能的规范定律,仍然是抽象的,在现实生活中运用会出现诸多难点。在现实的人工智能问题中,法学、伦理学都应该同步。

周江洪教授探讨了人工智能对法律理论和实践全新样态的塑造。他提到,民法讲求意思自治,其中合同是典型的博弈过程,需要自己寻找信息,做出决策。现代人工智能技术发展,可以寻找有目标导向的大量信息,精准决策。如果我们和人工智能交易,就落于下风。规范人工智能这一强大的对手,是否需要加强对方的告知义务与确定告知界限。因此,我们要把法学、伦理放进人工智能的发展中。人工智能高速发展,逐渐应用于法律领域,推翻了很多传统的法律思维,如民事主体、产品责任、因果关系判断等,改变了很多法律实践方式,如文书格式自动生成、庭审笔录压缩、智能裁判等。法学应与时俱进学习了解人工智能,应对未来技术发展。

随后,赵骏教授进行提问,三位院长围绕浙江大学人工智能发展愿景、人工智能伦理规制的全球共识、法律人如何迎接人工智能带来的机遇和挑战等问题,展开了进一步的讨论。

随着自然语言处理、机器学习等基础技术的渐次突破,法律领域人工智能的应用在近年来蓬勃兴起。人工智能塑造法律职业和实践的全新样态,也将极为深刻地改变私人与公共生活的样式,由此引发了法律、伦理的问题与挑战。如何让法治插上科技的翅膀,把法治纳入科技的轨道,协调科技与伦理规则的发展步调,需要群策集智。我们期望通过对人工智能相关法律、伦理和社会问题的深入探讨,为智能社会划出法律和伦理道德的边界,让人工智能服务人类社会。

文稿:吴越溪

摄影:黄巧丽