Используя методику социальной психологии, называемую «игра в имена», исследователи проверили, смогут ли ИИ-агенты, взаимодействуя друг с другом, формировать общий язык. Агенты начинали игру с случайных догадок, но со временем, благодаря памяти о предыдущих раундах, они начали угадывать выбор друг друга и вырабатывать общие правила.
Эти результаты могут иметь важные последствия для управления поведением ИИ в реальных приложениях. Понимание того, как создаются такие соглашения, поможет обеспечить, чтобы системы ИИ действовали в соответствии с человеческими ценностями и общественными целями, минимизируя риски злоупотреблений.
Таким образом, исследование показывает, как ИИ, как и люди, может развивать свои собственные «нормы» и поведение, что важно для формирования будущего взаимодействия человека и машины.
Если вам понравился материал, кликните значок - вы поможете нам узнать, каким статьям и новостям следует отдавать предпочтение. Если вы хотите обсудить материал - не стесняйтесь оставлять свои комментарии : возможно, они будут полезны другим нашим читателям!