【48812】给大模型系上“安全带”瑞莱才智发布全新人工智能安全渠道
来源:小九体育直播 发布时间:2024-04-25 03:12:44新技能的呈现往往伴随着新的安全问题。大模型作为当时AI范畴的热门之一,其强壮的才能引发了学界和业界的重视和担忧。近期,包含走漏、违法有害内容的生成以及对某些社群的成见和轻视等安全问题,一再曝光。
怎么助力大模型安全开展?清华大学人工智能研究院孵化企业瑞莱才智RealAI,日前推出了一款人工智能安全渠道。
7月7日,南都记者得悉,瑞莱才智在2023WAIC国际人工智能大会发布了全新人工智能安全渠道RealSafe3.0。
据称,RealSafe3.0为大模型供给了端到端的模型安全性测评解决方案。相较上一版别,RealSafe3.0在评测维度进步行了全面晋级,涵盖了近70个评测维度,包含数据安全、认知使命、通用模型特有缝隙、乱用场景等。该渠道的作业流程包含通用大模型的测评和优化,经过自研红队对立模型和教练模型,从源头上修正模型中的问题,提高安全功能。
瑞莱才智联合发起人、算法科学家萧子豪以为,大模型“落地难”的实质在于,当时仍处于“粗野成长”阶段,还没找到场景、危险和标准三者之间的平衡点。而在探寻这一平衡点的过程中,短少易用和标准化的东西,即在技能层面上缺少有力抓手,能够科学评判大模型在场景中能否一起满意标准和低危险,且能够进一步定位问题并给出优化主张,助力模型上线运转。
除了RealSafe3.0,瑞莱才智RealAI还发布了能够防备生成式人工智能歹意乱用的DeepReal2.0。DeepReal能够检测Deepfake内容,并新增两个功能模块,用于检测Diffusion和LLM生成的数据,支撑对图画、视频、音频和文本的伪造检测。该渠道的使用场景包含冲击网络欺诈和名誉损害行为、检测网络内容合规性、检测音视频证据真实性等,可对生成式人工智能技能乱用行为进行管控和管理。
萧子豪表明,未来瑞莱才智将持续致力于技能创新和产品优化,保证在人工智能安全的攻防战中一直处于领头羊,为AI的高水平开展贡献力量。