机构客户
关于
来自 Anthropic 和其他组织的研究人员正在研究如何引导大型语言模型(LLMs)保持一种被称为助手角色的有益人格,同时避免有害行为。在他们的预印本论文中,他们对各种模型的神经网络进行了映射,以对响应进行分类,并识别出助手角色以及其他角色,如 “恶魔” 和 “骗子”。他们的研究结果表明,理解这些角色可以帮助约束 LLM 的行为并改善安全措施,特别是在长时间互动期间。该研究旨在使 LLM 更易于管理,并降低产生不良输出的风险
在《华尔街日报》的采访中,达里奥·阿莫代伊表示,公众尚未为这项技术可能带来的潜在不平等做好准备
一项新的基准测试 OTelBench 显示,领先的 AI 模型在调试能力方面存在困难,而这些能力对站点可靠性工程(SRE)至关重要。在对 14 个模型进行的测试中,使用 OpenTelemetry 添加分布式追踪的整体通过率仅为 14%。表现最好的模型是 Anthropic 的 Claude Opus 4.5,成功率为 29%。主要失败原因包括缺乏业务上下文和多语言系统的挑战。尽管一些成本效益较高的模型表现更好,但结果表明,AI 在 SRE 中的作用仍然有限,强调了工程师在模型改进之前需要自行处理 OpenTelemetry 的仪器化
1 月 20 日(路透社)- ANTHROPIC:* ANTHROPIC:与 “全球教育” 合作,为 63 个国家的教育工作者提供人工智能工具和培训