Пул N3 – > 73
orig date 2025-05-21 08:30:27
«Исследование показало, что большинство чат-ботов на основе искусственного интеллекта легко обмануть и заставить их давать опасные ответы»: Взломанные чат-боты на базе ИИ угрожают сделать опасные знания легкодоступными.
«Угроза со стороны взломанных чат-ботов, обученных распространять незаконную информацию, ощутима и вызывает беспокойство. Взломанные чат-боты на базе искусственного интеллекта угрожают сделать опасные знания легкодоступными, распространяя незаконную информацию, которую программы усваивают во время обучения.
Предупреждение появилось на фоне тревожной тенденции к «джейлбрейку» чат-ботов для обхода встроенных средств контроля безопасности. Предполагается, что ограничения не позволят программам предоставлять вредоносные, предвзятые или неуместные ответы на вопросы пользователей»