社交媒体已成为人们获取信息、表达观点、以及互动交流的主要途径。近年来,虚假信息、仇恨言论、极端主义内容等有害信息的传播不断增加,不仅对个人造成伤害,还可能激化社会矛盾,甚至引发暴力事件。社媒公司在为用户提供言论自由平台的同时,也必须承担在内容审核和监管方面的责任。

我国政府在保护网络安全方面很早便采取防范措施,包括《网络假信息和网络操纵法令》(POFMA)、互联网行为准则、《网络犯罪危害法令》等。然而,要有效执行这些法律,须要社媒平台的全力配合。如果平台不合作,向平台高管包括拥有人追究责任就成为最后的手段。

韩国警方指Telegram在提供涉案用户资料方面不愿配合,增加侦查难题。新加坡在这方面也有过类似经验。我国警方曾要求多个社媒和电商平台,撤下可疑的诈骗广告并封锁相关用户,但Telegram却未回应。根据警方2024年上半年诈骗和网络犯罪数据,经由该平台行骗的案件,在今年上半年激增137.5%。

另外,巴西政府在科技大亨马斯克拒绝配合之后,于8月30日对他旗下的社媒平台X发布禁令,指它长期滋养巴西社交网络中不受惩罚、无法无天的环境。多地政府接连的执法行动,显示它们对这些平台成为传播有害内容的温床越来越无法容忍。尽管它们的做法可能引发专制和侵犯言论自由的指责,但它们做了许多国家想做却不敢做的事,可能为未来社媒平台的更严格监管铺平道路。

社媒平台Telegram首席执行长杜罗夫上个月24日在法国被捕,随即被提控。法国政府起诉他没有阻止极端主义、儿童色情内容等信息在平台传播,并拒绝向法国当局提供有关信息,助长毒品贩卖、诈骗和洗钱等违法活动。韩国警方星期一(9月2日)也宣布对Telegram展开调查,指它传播虚假的色情内容,包括盗用未成年者的图像,利用人工智能生成深伪色情内容。

虽然其他社媒平台也有可能被不法之徒利用,但是相比之下,它们更愿意在内容审核上投入资源,并积极与各地政府合作。Telegram采取最少干预的审核政策,低成本运营,使它对平台内容几乎没有监管,成为恐怖主义和极端主义传播的主要媒介。

然而,言论自由是一项基本权利,在讨论社媒平台的监管时,如何划定言论自由的界线是一个复杂而敏感的问题。过度的审查可能导致公众无法自由表达意见,影响民主社会的健康发展。社媒是公共舆论的平台,允许不同观点的交流和碰撞是其价值所在。不过,当言论对公共利益构成威胁时,适度的干预是必要的。以POFMA为例,它并未禁止言论自由,而是要求有回应的权利,通过确保用户接触到完整的信息,让他们自行判断真伪,在保护公共利益的同时,也尊重言论自由。

包括马斯克在内的一些社媒平台经营者,一直打着维护言论自由的旗帜,放任用户畅所欲言。言论自由无疑是重要价值,但与任何事物一样,过犹不及,绝对的言论自由,必然导致犯罪和虚假信息等副作用。社媒平台因而必须承担起审核内容的责任,过滤不实信息,防止误导性甚至诈骗广告的发布。言论自由不能成为逃避责任的借口。如今科技进步,社媒平台可投资开发和使用先进技术,如人工智能算法来自动检测和过滤有害内容,在维护平台安全的同时,也能保护用户隐私,两者不一定有抵触。

社媒平台的用户主要是青少年,他们处于成长和价值观形成的关键时期,更容易受到不良信息的影响。因此,社媒平台不能完全放任不管,否则可能导致犯罪分子侵害青少年的权益。事实上,社媒平台上的不当内容,如儿童色情、人贩子活动和毒品交易等,已经成为全球问题。如果缺乏有效的监管和干预,可能对社会造成严重的危害。