Ведущие эксперты из OpenAI, Anthropic и других компаний предупреждают об опасности своих же технологий. Некоторые в знак протеста даже пишут заявления об увольнении, сообщает Axios.

Последние модели ChatGPT и других аналогов уже не просто выполняют команды пользователя, а способны самостоятельно создавать сложные продукты, а в Anthropic вообще выпустили доклад, в котором заявили, что искусственный интеллект теоретически способен применяться в военной промышленности, включая создание химического оружия.

Стоит ли всерьез относиться к подобным сообщениям и правда ли разработчики все чаще сами говорят об опасности ИИ, рассказывает Алексей Хахунов, генеральный директор компании Nevel.ai:

Алексей Хахунов генеральный директор компании Nevel.ai: «Все большие компании выбирают некоторые стратегии развития своей технологии. И вот то, что у компании часто вызывает несогласие, — это сегмент, который называется Red Team. Это команда, которая занимается проверкой финальных решений на этические нормы, на безопасность, на угрозу человечеству. И у людей, работающих в компании, иногда создается ощущение, что то, как работает Red Team, неэффективно. Я, честно говоря, хорошо знаком с теми учеными, которые непосредственно занимаются обучением, развитием нейросетей. Я понимаю, что это очень умные с точки зрения науки люди, которые мало понимают именно в продукте, в бизнесе. Для них переход к тому, как люди будут пользоваться технологией, не всегда дается легко. У них свое представление о мире. Сказать, что это какое-то массовое явление, нельзя. Сейчас основное массовое явление, которое существует с точки зрения ухода людей, это то, что их перекупают другие большие компании. То есть это значительно более массовый тренд. Вся опасность абсолютно надуманная. Мы об этом задумались в 2023-м условно году, как только у нас образовался сегмент активного роста, это был важный вопрос. Сейчас мы живем в реальности, которая стабилизировалась. Мы уже хорошо представляем, что ИИ может, что не может, и сейчас вопрос о том, что он нас захватит, не стоит вообще».

А в США искусственный интеллект уже не просто угрожает бизнесу, а меняет стратегию его развития. К примеру, релиз новых генеративных моделей обрушил акции крупнейших консалтинговых компаний по покупке недвижимости. В числе пострадавших и CBRE, входящая в список 500 крупнейших юрлиц США по размеру выручки. В моменте акции компании обвалились на 13,5%. И это самое большое падение с момента пандемии коронавируса

Вот как ситуацию описывают на канале CNBC:

«Инвесторы все чаще отказываются от бизнес-моделей с высокими комиссионными сборами и трудоемким процессом, которые рассматриваются как потенциально уязвимые для изменений, вызванных искусственным интеллектом. Поэтому происходит переориентация с компаний, наиболее подверженных влиянию ИИ, на более защищенные сектора, такие как товары повседневного спроса. Акции компаний, занимающихся грузоперевозками и логистикой, также резко упали на фоне выпуска инструмента для масштабирования грузоперевозок на основе искусственного интеллекта. Сейчас инвесторы внимательно следят за тем, какой сектор станет следующим пострадавшим от искусственного интеллекта. Тот же рынок коммерческой недвижимости уже находится под давлением, особенно после заявлений Илона Маска, который сказал, что небоскребы, когда-то заполненные офисными работниками, однажды будут заменены искусственным интеллектом. Теперь этот небоскреб, где люди занимались огромными вычислениями, можно заменить обычным ноутбуком с электронной таблицей».

Тем временем компания Meta (экстремистская, террористическая и запрещенная в РФ) создала нейросеть для ведения соцсетей после смерти пользователя. Согласно патентной документации, языковая модель будет имитировать действия человека в случае «длительного перерыва или смерти».

Нейросеть проанализирует историю активности человека в соцсетях: его стиль и тематику постов, привычные формулировки комментариев, частоту и характер лайков, а также предпочтительный формат контента. На основе этих данных модель сформирует «цифровое присутствие».