© getthebigpicture.net Ігрові завдання допомогли у розробці стратегії покращення можливостей штучного інтелекту.
Моделі великих мов (LLM), такі як GPT-4, Claude 2 та Llama 2, продемонстрували значний прогрес у генеруванні тексту та виконанні логічних міркувань. Тим не менш, дослідження показують, що коли справа доходить до сценаріїв, що вимагають соціальної взаємодії, вони схильні демонструвати індивідуалістичну поведінку, як повідомляє TechXplore .
У нещодавньому дослідженні, опублікованому в журналі Nature Human Behaviour , дослідники з Інституту штучного інтелекту імені Гельмгольца в Мюнхені, Інституту біологічної кібернетики імені Макса Планка та Тюбінгенського університету моделювали поведінку людей з обмеженим доступом (LLM) у соціальних умовах. Моделі брали участь у серії повторюваних ігор, включаючи класичні теоретико-ігрові задачі, такі як «Дилема в'язня» та «Битва статей».
«Мотивація випливала з простого, але важливого питання: якщо від фахівців з права (LLM) очікується взаємодія з окремими особами та один з одним у практичних застосуваннях, наскільки ефективно вони розуміють соціальну динаміку?» – уточнила провідний автор дослідження Еліф Аката.
Дослідники виявили, що моделі чудово працюють у конкурентному середовищі, де кожен учасник ставить на перше місце власні інтереси. Однак у сценаріях, які вимагають компромісу, спільного розуміння та колективного планування, LLM часто мають труднощі з ефективною координацією.
«Ці висновки означають, що сучасні моделі ще не розвинули соціального інтелекту, але вони також розкривають шляхи, які спрямовують їх до поведінки, більш схожої на людську», – зазначив Аката.
Один із підходів, який сприяв покращенню результатів, полягав у тому, щоб спонукати модель передбачати дії партнера перед прийняттям рішення. Цей метод значно підвищив співпрацю та ефективність.
Дослідники впевнені, що аналіз поведінки моделей у соціальних контекстах може краще підготувати їх до застосування в критичних аспектах життя, таких як медичні консультації, освіта чи соціальна допомога. У цих ситуаціях штучний інтелект повинен демонструвати емпатію, сприяти взаєморозумінню та діяти таким чином, щоб вселяти в людей почуття підтримки та довіри.
Дослідницька група зараз прагне моделювати складніші сценарії, включаючи багатокористувацькі ігри (за участю більше двох учасників), ситуації з неповною інформацією та довгострокові взаємодії, де успіх залежить від стабільності стосунків між учасниками.
Варто зазначити, що зараз докладаються зусилля з інтеграції штучного інтелекту в Telegram . Фірма Ілона Маска xAI та Павло Дуров досягли угоди про інтеграцію чат-бота Grok зі штучним інтелектом у платформу обміну повідомленнями. Компанія Дурова також володітиме 50% підписок xAI. Користувачі матимуть можливість ставити запити штучному інтелекту через рядок пошуку.