Когда появится сильный искусственный интеллект
Перейти к содержимому

Когда появится сильный искусственный интеллект

  • автор:

Развитие ИИ и борьба с дипфейками: прогнозы на 2024 год от Сэма Альтмана

Фото: Shutterstock

Сэм Альтман снова возглавляет компанию, которая разработала самую известную в мире нейросеть — ChatGPT. Какие прогнозы по развитию искусственного интеллекта визионер дает на 2024 год?

  • Общий искусственный интеллект
  • Государственное регулирование
  • Экономика интернета
  • Авторские права
  • Дипфейки
  • Надежность нейросетей
  • ИИ уничтожит человечество?

Сэм Альтман отличается от типичных руководителей стартапов из Кремниевой долины. Они много и охотно говорят о технологических прорывах, которые обеспечат их продукты. Главный посыл обычно — «Мы сделаем мир лучше». С одной стороны, Альтман тоже предсказывает, что человечество сделает большой шаг вперед благодаря нейросетям и ChatGPT в частности. С другой стороны, CEO OpenAI открыто говорит о рисках, которые может вызвать быстрое развитие искусственного интеллекта. И это нехарактерно для людей его круга.

В 2015 году Альтман считал, что искусственный интеллект сможет заменить людей в рутинных задачах, но там, где нужны креативность и сочувствие, человек справится намного лучше. За прошедшие годы руководитель OpenAI скорректировал свои представления о будущем и рассуждает о незаменимости людей осторожнее. Каким же он видит наше будущее в мире, где ИИ с каждым месяцем играет все более важную роль?

Фото:Shutterstock

Общий искусственный интеллект

Сейчас искусственный интеллект решает узкоспециализированные задачи. Например, генерирует картинки по запросу или пишет код. Такой ИИ называют узким или слабым. Предполагается, что в будущем мы сможем создать сильный, или общий искусственный интеллект — AGI (artificial general intelligence). Он научится обрабатывать разные задачи, самостоятельно принимать решения и действовать. Это именно тот вариант искусственного интеллекта, с которым связаны главные страхи о будущем человечества.

Сэм Альтман уверен, что каждая новая языковая модель будет все сильнее походить на представления людей об общем ИИ. Человечество с каждым годом приближается к созданию AGI. 2024 год станет важным этапом на этом пути, хотя сильного ИИ в следующем году не появится — для него у крупного бизнеса и государств недостаточно идей. Сейчас OpenAI работает над следующей версией своей языковой модели — GPT-5. Она будет более совершенной и продвинутой, чем GPT-4, которую компания представила в 2023 году, но останется олицетворением слабого ИИ.

В отличие от многих, Альтман совсем не боится перехода к общему искусственному интеллекту. Наоборот, он ждет его с нетерпением. По мнению CEO OpenAI, AGI вместе с недорогой доступной энергией кардинально изменят жизнь людей к лучшему. Альтман называет общий ИИ самым полезным и прорывным открытием в истории человечества и считает, что мы сможем до него дойти в течение ближайшего десятилетия.

Помимо плюсов, развитие AGI принесет обществу и ощутимые минусы. Переход к общему искусственному интеллекту сильно изменит рынок труда, как это случается при любой технологической революции. Альтман соглашается с тем, что для многих процесс будет болезненным. Например, человек любит свою работу и не хочет ничего менять. Понравится ли ему, что однажды он окажется просто не нужен, потому что его заменит нейросеть? CEO OpenAI считает, что безусловный базовый доход решит проблему лишь частично. Ведь люди благодаря профессии не только зарабатывают на жизнь, но и самореализовываются. Поэтому вопрос будущего рынка труда нужно активно обсуждать уже сегодня. Только так можно подготовиться к моменту, когда он раз и навсегда изменится.

Государственное регулирование ИИ

Сэм Альтман считает, что вопрос правительственных ограничений станет одним из центральных в сфере искусственного интеллекта в 2024 году. Он выступает сторонником регулирования ИИ со стороны государства. В 2023 году Альтман участвовал в слушаниях в сенате США на эту тему, а также встречался с премьер-министрами европейских и азиатских государств. Альтман говорил о возможных рисках развития ИИ, призывал серьезно к ним относиться и обещал сотрудничать с законодателями в интересах общества.

По словам руководителя OpenAI, правильнее регулировать ИИ на международном уровне, выработать к этому вопросу общий подход. Чем быстрее странам удастся договориться, тем лучше. Нюанс в том, что ограничивать надо крупные компании, которые разрабатывают самые мощные языковые модели. Альтман против регулирования ИИ на уровне стартапов, потому что это будет мешать им развиваться и затормозит как технологический, так и экономический прогресс.

Фото:Shutterstock

Экономика интернета

В 2024 году продолжит меняться экономическая модель интернета — об этом Альтман рассказал в недавнем интервью The New York Times. Сейчас экономика Сети сильно завязана на рекламе, которую пользователь видит в браузере и на сайтах. Но чем чаще люди обращаются с вопросами к нейросетям, тем реже нужны браузеры и тем невыгоднее размещать в них рекламу.

OpenAI сознательно отказалась от рекламы и получает деньги за подписки. Альтман заявляет, что компания выбрала такую модель специально: отчасти по экономическим, отчасти по моральным причинам.

Авторские права

Многие люди творческих профессий считают, что разработчики нейросетей должны платить им деньги. Ведь модели обучаются рисовать изображения и писать тексты на основе их произведений в интернете. Сэм Альтман не согласен с таким подходом. Он считает, что если эти произведения в интернете могут бесплатно посмотреть люди, то почему их не может использовать нейросеть?

Вместе с этим CEO OpenAI замечает, что в 2024 году нужно начать разрабатывать новую модель поощрения авторов. Компания не будет платить за обучение нейросетей на их материалах, но она может делиться с ними частью итоговой прибыли. Конечно, это не самый простой и очевидный шаг, на его проработку потребуется время. Но возможно, такие отношения авторов и крупного бизнеса будут казаться многим более справедливыми.

Дипфейки

Дипфейки выглядят одной из очевидных проблем, связанных с распространением искусственного интеллекта. Они могут не только обмануть зрителей, потому что все сложнее отличить настоящего спикера от сгенерированного нейросетью, но и навредить имиджу известных людей. Особенно опасны дипфейки, которые влияют на принятие решений, например во время избирательной кампании.

Альтман считает, что проблему можно решить с помощью маркировки видео и изображений, сгенерированных нейросетями. Сейчас OpenAI, как и другие крупные компании в сфере ИИ, работает над такой технологией. Альтман не называет даты релиза, но возможно, что это произойдет в 2024 году.

Надежность нейросетей

Много вопросов вызывают ошибки нейросетей. Из-за этого кажется, что не всегда можно им доверять. По мнению Сэма Альтмана, уже в следующей модели OpenAI GPT-5 неточностей в ответах будет гораздо меньше. К сожалению, в 2024 году этот вопрос не удастся полностью решить, но получится за несколько следующих лет, и проблема ошибок ИИ полностью уйдет с повестки, считает он.

При этом важно, чтобы модели, не ошибаясь, оставались гибкими и способными к принятию креативных решений. Нейросети должны творить, но выполнять исключительно то, о чем их попросят.

Фото:ynharari.com

ИИ уничтожит человечество?

Сэм Альтман уверен, что в 2024 году человечество точно не погибнет. По крайней мере по вине искусственного интеллекта. Конечно, рисков много: например, кто-то с помощью ИИ захочет взломать системы безопасности важных объектов или создать новый смертоносный вирус. Чтобы не допустить катастрофы, люди уже сегодня должны понимать угрозу и развивать технологии, которые снизят риски возникновения опасных ситуаций, считает Альтман. OpenAI займется этим в ближайшие годы.

В целом прогноз Сэма Альтмана на 2024 год и ближайшее десятилетие вполне оптимистичный. Модели GPT пока не заменят высококвалифицированных и многозадачных специалистов. При этом нейросети существенно облегчат человеческий быт и поспособствуют экономическому и научному прогрессу.

По мнению Альтмана, нынешним поколениям выпала возможность жить в потрясающее время, ведь они станут свидетелями развития искусственного интеллекта — возможно, величайшей технологии за всю историю. В то же время предприниматель считает, что при всех плюсах нейросетей надо быть внимательными и не терять контроль над их развитием.

Альтман с надеждой смотрит в будущее. В ответ на слухи он заявляет, что не готовит бункеров на черный день, ведь если с ИИ что-то пойдет не так, никакой бункер не поможет.

Когда появится сильный искусственный интеллект

Hitech logo

Новый прогноз от Маска: «Сверхразумный интеллект появится до конца 2025 года»

Георгий Голованов 10 апреля, 10:04

TODO:

Георгий Голованов 10 апреля, 10:04

Сложно не заметить резкий рост технологии искусственного интеллекта, происходящие в последние годы и даже месяцы. Вместе с ним участились и предсказания о скором появлении компьютерного сверхразума, который превзойдет человека по всем релевантным показателям. Есть мнение на этот счет и у Илона Маска — он полагает, что сверхразумный ИИ появится уже к концу следующего года.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Во время интервью с Николаем Тангеном, управляющим хеджевым фондом и подкастером, Маск поделился своими взглядами на скорость, космонавтику, Марс и искусственный интеллект. В ответ на вопрос, «где мы находимся в гонке ИИ?», он заявил, что ИИ «это самая быстро развивающаяся технология, которую я только видел, а я видел много технологий». Компьютеры, созданные для повышения способностей ИИ, наращивают мощность «в десять раз каждый год, если не каждые 6-9 месяцев, сказал он.

«Предположу, что ИИ умнее любого из людей появится примерно к концу следующего года», — предсказал Маск. Правда, при условии, что дефицит микрочипов для ИИ и слишком высокое энергопотребление не замедлят процесс развития, как это было в 2023 году, когда компании не могли купить столько процессоров Nvidia, сколько им было нужно. В этом году, как уже говорил Маск ранее, ожидается нехватка трансформаторов. Еще через пару лет — электричества.

Появление универсального, или сильного ИИ, по меньшей мере сопоставимого с человеком интеллекта считается уже неизбежным этапом развития этой технологии. Спорят лишь о том, что именно считать «сильным ИИ» и, как следствие, когда его ожидать, пишет Ars Technica.

«Если определять универсальный ИИ как более умный, чем самый умный среди людей, то, я думаю, это будет следующий год, в пределах двух лет», — сказал Маск.

Создание сверхразумного ИИ назвал главной целью своей компании Сэм Альтман, основатель OpenAI. По его мнению, человечеству эта технология принесет благо, так как резко ускорит темп научного и технологического прогресса. Прогноз ведущего научного сотрудника OpenAI Ильи Суцкевера совпал с прогнозом Маска. Более того, в отличие от босса, Суцкевер назвал этот инструмент крайне опасным.

В другом подкасте Маск рассказал , насколько безумная идет сейчас война за таланты в области ИИ. Из-за дефицита кадров специалисты в сфере ИИ — одни из самых высокооплачиваемых на рынке труда. Компании предлагают им баснословные деньги, близкие к семизначным цифрам.

Геополитик: сильный искусственный интеллект в ближайшее время не создадут

Сильный искусственный интеллект, способный производить новые смыслы, в ближайшее время в мире не появится. Такое мнение в интервью «БИЗНЕС Online» выразил известный писатель и футуролог Сергей Переслегин. По его словам, ни одна из существующих генеративных моделей не может работать со смыслом и содержанием — они умеют только имитировать эту работу.

Фото: «БИЗНЕС Online»

«Для создания сильного ИИ нужно другое определение информации и иная архитектура процессоров вместо фон-неймановской. И какое-то количество лет, чтобы новая система вытеснила старую. На это придется тратить огромные деньги, а старая, в общем, для всех и так неплохо работает. Я не верю в появление сильного искусственного интеллекта, по крайней мере в сколько-нибудь разумные сроки, — рассказал футуролог в интервью „БИЗНЕС Online“. — Сегодняшний ИИ имеет интеллект гениального 6−7-летнего ребенка, который все помнит и ничего не упускает из виду. Это довольно сильный инструмент. И работает он только в паре. Человек придает его работе смысл, который искусственный интеллект сам создать не может. Зато он поможет ничего не упустить».

При этом Переслегин допускает, что ИИ изменит работу ученых, исследователей, писателей и журналистов. «Будет создан мир технологий искусственного интеллекта — это окажется главным технологическим изменением следующего такта развития», — прогнозирует спикер.

«Когда появится сильный ИИ, человек будет эволюционно отставшим»

Аналитик Пивоваров сообщил, что у моделей искусственного интеллекта уже появилась личность

Даша Зайцева/«Газета.Ru»

Чтобы создать сильный ИИ, его обязательно нужно наделить сознанием, однако в таком случае человечество само создаст себе эволюционного конкурента, считает главный аналитик Центра искусственного интеллекта МФТИ Игорь Пивоваров. При этом он отмечает, что подобие личности уже есть у речевых моделей искусственного интеллекта. Подробнее о них, а также о разногласиях ученых в понимании сильного ИИ, профессиях, которые ИИ вскоре заменит и планах на 2023 год Пивоваров рассказал «Газете.Ru».

— Какое определение Вы даете искусственному интеллекту?

— На этом вопросе можно начать интервью и закончить, потому что этих определений огромное количество. Я так скажу: это группа технологий, которые на компьютере моделируют когнитивные способности человека — восприятие, обработку информации, анализ и принятие решений. Любое определение будет грубое и неточное, и очень сильно зависит от слов. Поэтому я не люблю определения давать.

— А чем сильный ИИ отличается от слабого? Где грань?

— Когда мы говорим, что кто-то обладает интеллектом, мы сразу представляем некое разумное существо, у которого есть какие-то интеллектуальные способности, которое что-то думает, понимает окружающую обстановку, умеет отвечать на вопросы, ставить какие-то цели, достигать их.

То есть мы ожидаем от него некоторого целесообразного поведения. Это и принято называть сильным ИИ, но ни одной такой модели сейчас не существует.

Слабый искусственный интеллект — это то, что сегодня уже существует, разные отдельные маленькие задачи типа распознавания лиц или операций с текстами. И, на самом деле, грань здесь тоже очень условная. Мы постепенно сдвигаем эту границу между так называемыми слабыми технологиями и сильными. И, наверное, когда мы перейдем эту границу, мы это не сразу осознаем. Нам будет казаться, что ИИ все еще слабый.

— Как вообще можно понять, что ИИ стал сильным?

— Это сложный вопрос. Многие ученые пытались предложить на него ответ. Например Алан Тьюринг предложил тест Тьюринга, который для этого случая можно сформулировать так: если вы переписываетесь с собеседником и думаете, что это человек, а на самом деле это компьютер – то такой ИИ можно было бы назвать «сильным».

Но есть уже много примеров, когда «слабый» ИИ проходил тест Тьюринга.

Значит этого критерия недостаточно. Есть например известный «кофейный» тест – робот должен зайти в любой дом, пройти на кухню и сделать кофе. Любой человек это сделает, несмотря на то, что все кухни разные, где-то кофе растворимый а где-то он в зернах и надо его молоть, все кофемашины разные. А вот робот со всем этим разнообразием и отсутствием точного плана действий пока справиться не может. Этот тест тоже не лишен недостатков, поэтому энтузиасты сильного ИИ говорят так, что это должен быть такой ИИ, который способен решать все задачи на уровне человека или даже лучше.

— Вы сильный ИИ описали так, будто это отдельная личность.

— В сообществе людей, которые занимаются искусственным интеллектом, есть разные течения. И у всех разное понимание этого сильного ИИ и, соответственно, его возможностей.

Я принадлежу к той группе исследователей, которые думают, что без такой внутренней личности, которая будет мотивирована на то, чтобы помогать человеку решать разные задачи, невозможно создать настоящего интеллектуального помощника. Это будет всегда некий суррогат.

Интеллект нужен ему именно для решения определенных задач, в каком-то смысле интеллект — это инструмент для кого-то. А если не будет этой личности, которая будет управлять интеллектом, то сложно представить себе решение поставленных перед ним задач.

Сейчас движение к этой личности идет активно. Например, в разговорных агентах, которые у нас в Центре прикладных систем ИИ активно развивает команда Михаила Бурцева, уже есть какие-то зачатки личности. Я имею в виду известную библиотеку DeepPavlov и возможности ее персонификации. Когда разговорный робот персонифицируется, у него как бы появляется некая личность и он, исходя из этой личности, отвечает на вопросы или ведет диалог. Это не совсем та личность, которую я имел в виду, но уже что-то похожее

Другой вопрос, что личность, конечно, тоже понятие очень многогранное. Одно дело наложить на модель некоторые диалекты, жаргон, шутки специфические, даже пол. А другое дело, чтобы там действительно было нечто, что ведет себя как личность.

— А можно ли взять у DeepPavlov интервью?

— Можно, конечно. Но результат может быть самый непредсказуемый. Впрочем, и с человеком не угадаешь иногда, что он ответит!

— Вы сказали, что есть несколько течений. Кроме того, к которому Вы себя относите, какие еще бывают?

— Есть исследователи, которые считают, что никакой личности не нужно, что просто нужно растить модель, увеличивая количество параметров нейронной сети. Тогда сети будут, условно, отвечать на вопросы лучше, чем любой человек.

Есть те, кто считает, что нам нужно делать ИИ обязательно безличностным, без какого-либо осознания себя, в любом случае, потому что это влечет за собой необратимые последствия. Скажем, связанные с безопасностью.

Есть несколько мыслителей, которые на эту тему размышляют: что будет, если мы создадим ИИ, который будет мощнее, чем человек, будет больше информации получать и перерабатывать. При этом будет сам себе ставить цели, будет себя осознавать и иметь возможность учиться бесконечно и быстро.

Другими словами, когда появится сильный ИИ, то по сравнению с ним человек окажется эволюционно отставшим. Мы сами себе создадим эволюционного конкурента. Хотя множество других исследователей такую возможность отрицают, считают, что это все чепуха и такого не будет, на мой взгляд такой риск, безусловно, существует.

Здесь налицо парадокс: на мой взгляд, создать настоящий искусственный интеллект можно только сделав в нем личность, а с другой стороны, сделав в нем личность, да еще и осознающую себя, мы как человечество создаем для себя экзистенциальные риски, то есть риски для собственного существования.

Получается, что то, что мы хотим создать, потенциально крайне опасно. Но сейчас пока все это скорее философские рассуждения, потому что пока человечество не очень понимает, как сделать сильный ИИ. До этого явно далеко.

— В чем сложность, на ваш взгляд, создания сильного ИИ?

— Я бы обозначил так. Во-первых, мы не очень понимаем, что мы хотим сделать. Во-вторых, мы не понимаем, как это работает у человека.

Ваш первый вопрос был про определения. Множество людей пытается как раз дать определение, поставить четкую техническую задачу. И вот здесь мы сталкиваемся с тем, что мы не понимаем, что такое личность, что такое сознание, что такое мышление. Сколько людей этим занимается — каждый дает свое определение, свои подходы к этому, как это делать, а, значит, нет ясности в том, как это реализовывать. Одно дело, когда мы, условно, хотим сделать машину, которая будет летать — самолет. Техническое задание – четкое, хотя и верхнеуровневое. Из него можно вывести конструкцию этой машины. А здесь мы с трудом понимаем на верхнем уровне, что мы хотим создать. Поэтому и детали непонятны.

В понимании работы мозга существует серая зона. Существует совершенно зыбкая и непонятная граница между физиологией и психологией. Физиологию мы хорошо понимаем: как устроены нейроны, как они передают друг другу импульсы, как они связаны в сеть, как эта сеть образует структуры мозга. А вот дальше есть серая зона, то место, где возникает личность. Как из работы нейронов и передачи сигналов между ними возникаю «я», мои ощущения и переживания, мое мышление и интеллект — тут мы пока не знаем очень многого.

Чтобы прорвать этот толстый-толстый слой серого тумана, судя по всему, нужны какие-то новые физические модели происходящего. Сегодняшние нейронные сети и модели искусственных нейронных сетей, на мой взгляд, свою роль отыграли. Они дают прекрасные результаты, и они прекрасно моделируют этот уровень нейрофизиологии. Но как из него появится следующий уровень психологии и тем более мышления — пока не до конца ясно.

Конечно, есть исследователи, которые говорят, что просто мы будем наращивать размеры нейросетей и мышление само собой как-то внутри появится. Но я думаю, что само не появится. Нужны какие-то новые идеи.

— Насколько область искусственного интеллекта развита в России, если сравнивать с другими странами?

— На эту тему есть несколько аспектов. Когда-то мы были, можно сказать, впереди планеты всей. Потому что в 1960-х годах идеи, которые были у некоторых советских ученых, впоследствии легли в основу современных искусственных нейронных сетей. Но основную революцию этих искусственных нейронных сетей мы пропустили. По разным причинам, в первую очередь, конечно, из-за очень сильного развала нашей науки.

Сейчас многие научные группы пытаются ее догнать. Но сложно успеть за основным мейнстримом мировой науки, она движется очень быстро. Зато, в России есть много людей, которые развивают альтернативные подходы, которые могут оказаться очень перспективными. Вообще Россия, как мне кажется, это страна, которая очень любит делать все по-своему.

— Альтернативные подходы — это какие именно?

— Есть много разных математических подходов. Можно по-разному моделировать какие-то функции работы мозга. Например один из старых подходов: экспертные системы, когда компьютер просто запоминает какое-то количество фактов и ответов на вопросы, постоянно пополняет эту базу данных и потом почти на любой вопрос может давать ответ. Сейчас это уже не принято называть искусственным интеллектом, а в 1970-е годы это, пожалуй, было основное направление в ИИ.

Сегодня же основное направление — это глубокие нейронные сети. Но помимо них есть всякая другая математика: нечеткая логика, вероятностные подходы, задачные подходы. Просто это другие математические модели с другим подходом к работе мозга, с попыткой по-другому это смоделировать. И какая модель правильная — никто не знает. Да это и не важно. Важно, какой она дает результат.

Сегодняшние глубокие нейронные сети дают отличные, все более впечатляющие результаты. Поэтому основная масса ученых идет как раз по этому направлению. Это, к сожалению, требует огромных ресурсов, огромных денег и плюс некоторых компетенций, которых у нас в России достаточно мало.

— В какие сферы в России уже сегодня можно будет внедрить ИИ?

— Вы будете смеяться, но ИИ уже сегодня работает почти во всех сферах экономики! Сложно найти сферу, в которой он не работает. Вопрос только, в какой степени он работают и насколько этому искусственному интеллекту дают возможность реально управлять серьезными процессами.

Например, стоит большой промышленный станок, у которого есть куча всяких регуляторов, и им управляет человек или бригада. Хотя им вполне может управлять алгоритм машинного обучения, при этом решая задачи, которые человек решить часто не может. Например, предсказывая поломку этого станка за 10 минут до ее наступления, или повышая эффективность работы станка.

Например, на Челябинском трубопрокатном заводе поставили систему машинного обучения на трубопрокатный стан, который стал после этого делать на 5% больше труб за то же время. С точки зрения бизнеса — это огромный прирост эффективности. Это пример, когда ИИ допустили к реальной работе в процессе.

Но очень часто его не допускают, ИИ остается как бы таким вторым пилотом, который дает советы, но реально все делает человек. Например, такая ситуация в здравоохранении. Это называется «система поддержки принятия решения врача». Когда ИИ, обучившись, например, на снимках, дает врачу подсказку по наличию и расположению опухоли. Но финальное решение должен принять врач — человек.

Областей, где алгоритмы уже работают самостоятельно, пока не очень много. Известный пример — это видеокамеры и автоматические штрафы. Человек превысил скорость, номер распознался, автоматически сформировался штраф.

— А какие профессии, на ваш взгляд, наиболее уязвимы?

— В первую очередь всякие рутинные профессии, а также те, где есть повышенный фактор риска, где человек может устать и совершить ошибку. Это операторы станков, колл-центров, бухгалтера, да даже программисты, которые пишут достаточно простой код по техническому заданию, конкретный, без всякого творчества.

Разные рутинные процессы постепенно автоматизируются. И здесь дело не в искусственном интеллекте, это коммерческие решения людей – генеральных директоров или собственников предприятий. В этом смысле здесь не надо искусственного интеллекта бояться, скорее нужно людей опасаться.

Творческие профессии, конечно, вне опасности. Потому что, кто бы что не говорил, но искусственный интеллект пока творить не умеет. Это отдельная большая тема, здесь я просто свою позицию обозначил.

— ИИ играет роль больше инструмента для людей, которые занимаются творческими профессиями?

— Да. И как инструмент это выглядит совершенно прекрасно. Например, для художника он может моментально сделать сотню разных набросков. Или для журналиста — может сгенерировать какую-то «рыбу» текста в таком-то стиле на заданную тему. Но проблема в том, что этот алгоритм, который генерирует тексты, он же ничего в него не вкладывает, он просто делает как его обучили. Для него нет никакого смысла, никакой последовательности. Поэтому да, ИИ — инструмент для творца. Как самостоятельный творец — пока нет.

— Ждете ли вы от 2023 года каких-то серьезных открытий в этой области?

— Конечно. Потому что ИИ — это область, в которой работает больше 100 тыс. умнейших людей по всему миру, и там постоянно появляются новые интересные открытия. Что это будет, сказать трудно. Понятно, что модели будут увеличиваться в размере, будут находиться новые применения для существующих. Я не думаю, что появится настоящий «сильный» искусственный интеллект, но думаю, что наверняка появятся новые интересные применения и повышение очередной планки.

Но я боюсь, учитывая всю сегодняшнюю обстановку в мире, что основные усилия будут направлены на военные применения. Для меня это печально. Я понимаю, что это важная область и что иногда эти технологии спасают жизни. Но иногда, к сожалению, они губят эти жизни. Понятно, что в сегодняшнем мире, который становится все более конфликтным, к сожалению, все больше интеллектуального труда людей науки будет направляться в эту сторону. Работа над военными применениями ИИ, на мой взгляд, катастрофически опасна для человечества. И боюсь, что в сегодняшней жизни таких применений будет все больше. И это меня очень беспокоит как гражданина, как человека, как ученого. Не хотелось бы из этой области новости слышать.

— Какие у МФТИ планы на 2023 год в плане развития ИИ?

— МФТИ остается самым крутым университетом в России, где умеют делать полноценных роботов с искусственным интеллектом. Например, недавно наша команда выиграла открытый чемпионат Бразилии по футболу среди роботов, а в 2021 году был чемпионом мира по робофутболу. Другие лаборатории делают летающих, плавающих, четырехколесных, антропоморфных роботов. Мы планируем и дальше развивать эти направления, дополнительно интегрируя роботов с голосовыми ассистентами и выводить управление роботами на новый уровень.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *