社交媒体平台上的内容都是由用户制作(UGC),平台该不该为这些内容负责?
不管是仇恨性言论、色情内容、假新闻等,尽管平台方都强调通过AI协助审查,仍有许多漏网之鱼或误删内容的情况发生。
生成式AI背后的基础大型语言模型(LLM),有没有可能是解决方案?
曾在苹果(Apple)担任欺诈工程和算法团队工程师的Karine Mellata和Michael Lin,在2023年创立Intrinsic正在尝试这个可能性,并入选国际知名加速器Y Combinator(YC)。

苹果前员工Karine Mellata和Michael Lin,解决企业在内容审查上花费的时间和人力成本,创办Intrinsic。(Source:Intrinsic)
AI成为审查员的救命稻草?社交媒体大佬Facebook曾在全球雇佣几万名内容审查员,以人工的方式筛选平台贴文内容。
但人工审查不仅效率低、成本费用高,聘用的审查人员还需要承受巨大的精神压力,例如经常目睹到暴力、血腥或是色情等图片,而每则贴文也只有几秒钟的时间让他们决定是否符合发布规定。长时间来说,对这些审查员而言也是严重的工伤。
直到2017年,Facebook创办人扎克伯格(Mark Zuckerberg)开始让AI过滤平台内容,自动查看每则贴文和言论是否违反平台规定。利用AI审查内容无疑加快分析速度,但避免不了误判或是遗漏的情况。
时至今日,不论是Facebook或是各媒体平台的AI分析功能仍不够全面,例如AI只能侦测出38%的敏感或是仇恨言论,同时又不断有新的违规发文出现在平台上,AI需要更多详细的训练才能做出更精确的判断。就连Facebook这么大的企业都难以做到完美了,这题该怎么办?
Intrinsic运用大量参数优势解决“语义判读”问题Intrinsic认为还是得靠AI。虽然他们不是第一个利用AI做内容审查工具的团队,但可能是第一个把大型语言模型纳入规划的团队。
现在的AI审查大多采用NLP(自然语义处理)的技术,然而受限于喂给AI的数据有限,AI可能会不认得相同语义的关键字,例如“高清”、“4K”、“高画质”,AI可能只会认得“高画质”这个关键字。
但是大型语言模型可以从数据中找出关联和语义,能够以接近人类语言的逻辑处理言论审查,这也是Intrinsic所看好的。
Intrinsic用LLM审查除了更方便审核虚拟账号、暴力言论等违反网络安全内容之外,也让企业依据需求画出审查的范围。例如只要告诉LLM不希望在网站上出现关于哪一类腥膻色的图片或是字眼,Intrinsic就会根据相同语义的字眼和消息加以审核。
企业只需将Intrinsic的检测系统嵌入自家的内容审查系统中,便会自动分析社交媒体平台中的正负面内容,或是检测每位用户的真实性,若检测出诈骗或骚扰消息,会立即通知该企业的审查团队调查该名用户,利用AI加速内容审查流程。
不可忽视AI审查的未来隐忧目前Intrinsic于今(2024)年筹集310万美元的资金,主要投资者包括Urban Innovation Fund、Y Combinator和645 Ventures等知名创投。创办人Karine Mellata表示,计划将这笔资金运用在继续研发大型语言模型,将审查内容扩大到视频和声音内容。
虽然LLM帮助加快内容审查的效率,但仍不可忽视AI可能随之而来的问题。AI无法受到监控,因此像是训练AI的共享数据,或许也包含许多用户的个人资讯,容易造成数据外泄的情况发生,让AI把持大众的网络言论自由是否真能成为解决方案,仍有待商榷。
(首图来源:shutterstock)