专访第27届林连玉讲座主讲人 | 李建良:已进入生活 网络世界需法律规范

专访第27届林连玉讲座主讲人 | 李建良:已进入生活 网络世界需法律规范

感谢星洲日报专访与报导

受访者:台湾中央研究院法律学研究所特聘研究员兼所长李建良

刊登于2024年4月28日《星洲日报》A8/星洲网

专访:傅思敏

李建良教授(照片取自中央研究院法律学研究所官网)

(吉隆坡27日讯)台湾中央研究院法律学研究所特聘研究员兼所长李建良教授指出,网络世界已经是人类现在生活的地方,因此必须要有法律的规范。

他认为,人们不应该只单纯抱持着管制网络,便是侵害到言论自由的想法。

“我们在实体世界里,有种种规范,那为什么当今天变成数位时代的时候,就变成说因为言论自由所以我们不能管?”

他接受星洲日报专访时表示,事实上数位世界已经是一个对我们而言更为重要的世界。

因此他认为,既然现实世界中已有法律去规范,那么对数位世界进行规范便是尝试在数位世界中建立法治。

受邀担任林连玉讲座主讲人

李建良教授将应林连玉基金的邀请,于5月1日前来我国担任第27届林连玉讲座主讲人,讲题是“人工智慧与民主──数位社会意见形成的法反思”。

针对这一主题,李教授接受本报线上访问时强调,当人工智能进入到人类的生活,而且是我们生活中必备的过程,是我们的需要的时候,就必须制定法律的规范。

他以盖房子为例,盖房子存在一定的危险性,因此才有法律规定,必须要有执照才能进行建造工程。同理,法律也应对科技的发展所可能造成的危害、危险进行规范,这两者之间应该是相辅相成的一个关系。

“数位社会跟实体社会一样,不能说一个社会没有法律规范。”

确保民主决定结果理性

李建良教授表示,在数位平台上面,因为演算法会对民主社会中的意见形成过程造成一定的影响,因此应有法律去进行规范,我们需要有一些防卫机制来确保我们民主的决定的结果的理性。

他解释,网络世界里有很多东西是会影响到我们的民主决定,如果不进行防制,选举出来的结果可能是在一个有民主的形式下,选出来的人却是一个不怎么拥护民主的人。

他强调,如果实体社会是可以受到管制和规范的话,那数位世界理论上也可以。

他指出,我们现在是生活在数位世界里,演算法多多少少会影响到我们所看到的、听到的、读到的。

演算法所带来的影响可以说是一体两面的。李建良指出,演算法是机器学习,机器要学习什么,其实是人告诉它要学习什么。在大部分时候,演算法都会倾向于在社交媒体上抓取带有比较情绪性或挑衅性的文字,至于较为温和的文字或看起来没有对错的文字,演算法则可能不太会去对这些文字作出反应,也不会去抓取这些文字。

“所以,比如说有些政治字眼,或者有一些很强烈的情绪反应,演算法会去抓这些讯息,之后,演算法还会再回送(这些讯息)过来。

即将来马主讲“人工智慧与民主─数位社会意见形成的法治反思”讲座的李建良教授,接受星洲日报的线上专访谈人工智能与民主的关系。(视讯截图)

演算法会把意见给极端化

“所以当你点击一个比较具有特别政治性的讯息时,演算法可能会回送给你,或者说会推荐类似的东西过来。”

他指出,在这种情况下,演算法会在一定程度上把这些意见给极端化或两极化,促使比较中间的意见难以接触到人群。

“如果我们所理解的民主,是一个大家在各种不同的意见下沟通后取得一个共识,那人工智能演算法目前在数位时代下,对民主而言可以说是一个负面的影响。”

他补充,人工智能在民意形成的过程中不一定只是影响着我们的政治意见的形成,也影响着我们的各种生活、经济和消费形态,因此我们也应关注人工智能对日常生活中的公共意见形成所带来的影响。

人工智能融入司法程序中

另一方面,受询及有一些国家已经开始把人工智能融入到司法程序中,李建良表示,如果是把人工智能当作是一个辅助工具,比如使用人工智能来收集资料、整理案情,或是进行一些简单的案件分析,这确实带来了正面的影响,因为有助于增加司法的效率,并减轻法院的负担。

至于是否应该使用人工智能的演算结果来作为量刑的参考,则有两种不同的看法:一种是认为这会提高量刑的正确性和公平性;另一种看法则是认为,每一个案子都不完全百分之百一样,因此难以通过人工智能的演算结果来作为参考进行判断。

他表示,是否让人工智能来当法官,更多的是由我们的价值判断来决定是否接受。

“受审判时,不是人在判,是一个技术在判,这到最后不是科学上可不可能的问题,而是在于说一个人的价值决定的问题,我们要不要接受这样一个情形。

“而我个人是比较否定的态度。就算是可以,我认为那不是我们民主法治价值下面应该有的一种制度。”

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注