![](https://n1s1.hsmedia.ru/1f/ea/db/1feadbc0568010684729d3b32a7ccaf4/656x438_1:5723_8f0feb446501554988d0347b792ac7da@1280x853_0xsxRCyJE1_3237413485867255982.jpg.webp)
Эксперты «Института развития интернета» три месяца изучали, как можно применять ChatGPT для аналитики, прогнозов и юридических консультаций. В итоге они пришли к выводу, что ChatGPT не силен в юридических вопросах, но способен сократить время на набор текста, подсказать направление для более детальной аналитики и генерировать идеи проектных документов.
— Высокую эффективность ChatGPT показал в задачах, не требующих детального фактологического обоснования: подготовка концепций регулирования, текстов выступления, прогнозов, — говорится в заключении экспертов.
Среди примеров успешных, по мнению авторов исследования, работ искусственного интеллекта — концепция регулирования компьютерных игр, текст выступления на тему «Искусственный интеллект в образовании», прогноз развития регулирования интернета. Хуже ChatGPT справился с подготовкой ответов на правовые вопросы, методических рекомендаций и подборок судебной практики. А вот тест для самопроверки госслужащих он прошел неплохо, допустив всего 15 ошибок в 40 вопросах. При этом семь из них были допущены в вопросах по русскому языку и восемь — в вопросах на знание законодательства.
Специалисты подчеркивают, что при использовании ChatGPT может предоставлять недостоверную информацию или не упомянуть в ответе на запрос какие-либо важные факты, что приводит к искажению понимания ситуации. Проще говоря, все ответы искусственного интеллекта всё равно придется перепроверять.