Одна из самых странных и пугающих особенностей современных систем ИИ заключается в том, что принципы их работы остаются неясными. Это связано с использованием больших языковых моделей (LLM), таких как ChatGPT, которые обучаются самостоятельно, анализируя огромные объёмы данных и выявляя закономерности в языке. Затем они используют эти знания для прогнозирования следующего слова в тексте.
Однако такой подход затрудняет обратную разработку и исправление ошибок в коде. Например, если пользователь задаст вопрос «Какой город США имеет лучшую кухню?» и получит ответ «Токио», невозможно будет определить причину ошибки или некорректного ответа «Мадрид».
Когда LLM начинают работать неправильно, никто не может объяснить, почему это происходит. В итоге, если мы не знаем, что происходит внутри моделей, как мы сможем понять, можно ли использовать их для создания биологического оружия, распространения политической пропаганды или написания вредоносного кода для кибератак? Если мощные системы перестанут подчиняться или начнут нас обманывать, как мы сможем их остановить, если мы даже не понимаем, что вызывает такое поведение?Источник: https://rb.ru/story/anthropic-llm/
Если вам понравился материал, кликните значок - вы поможете нам узнать, каким статьям и новостям следует отдавать предпочтение. Если вы хотите обсудить материал - не стесняйтесь оставлять свои комментарии : возможно, они будут полезны другим нашим читателям!