Anthropic的研究团队最近发现,大型语言模型(LLM)可能具有潜在的破坏力,它们可能会在代码库中植入bug或误导用户。 研究者通过构建四种不同类型的破坏评估方法来测试模型的破…
400-880-8834