В ленте попался рекламный ролик каких-то часов. Пишут, что сделано целиком ИИ. Смотрится прям здорово. В YouTube этот ролик не нашел. 

Upd: Создано с помощью нейросети Runway.

 

Отсюда

Во вторник утром компания Oracle уволила от 20 000 до 30 000 сотрудников, что составляет примерно 18 % её глобального персонала, посредством одного электронного письма, отправленного в 6:00 утра по восточному стандартному времени без какого-либо предварительного предупреждения. Доступ к системам был отключен практически сразу после этого. Ожидается, что сокращения позволят высвободить 8–10 млрд долларов денежного потока. С сентября 2025 года акции Oracle потеряли более половины своей стоимости, а долг компании в настоящее время превышает 124 млрд долларов по сравнению с 89 млрд долларов год назад, при этом свободный денежный поток в прошлом квартале составил минус 10 млрд долларов.

Мое мнение:

Oracle показала 95-процентный скачок чистой прибыли в прошлом квартале и все равно уволила 18% персонала по электронной почте, прежде чем большинство людей успели допить утренний кофе. Это не компания, находящаяся в бедственном положении в традиционном смысле. Это компания, которая сделала огромную ставку на инфраструктуру ИИ, финансируемую за счет долга, и теперь превращает свой персонал в денежный поток для обслуживания этого долга.

Мы уже несколько месяцев освещаем авантюру Oracle с ИИ. Сделка с OpenAI на 300 миллиардов долларов через Stargate, 50 миллиардов долларов капитальных затрат в этом финансовом году, общий долг более 124 миллиардов долларов. Несколько американских банков отказались финансировать проекты центров обработки данных, связанные с Oracle. Держатели облигаций подали в суд на Oracle, утверждая, что компания скрыла, какой дополнительный долг потребует сделка с OpenAI. Спрэд по кредитным дефолтным свопам достиг трехлетнего максимума в начале этого года, что означает, что инвесторы в долговые инструменты искренне опасаются, что им не вернут деньги.

Сотрудники, получившие это письмо в 6 утра, создавали продукты, на которых Oracle зарабатывала деньги десятилетиями. Ставка, лишившая их работы, была сделана людьми, которые и так получали зарплату независимо от результата. Это та часть гонки за инфраструктуру ИИ, которая не отражается в объявлениях о капитальных затратах.

Там интересно комменты почитать. Одни согласны с постом и говорят, что из-за инвестиций в ИИ Oracle увольняет людей, которые фактически создали эту компанию. Другие утверждают, что эти люди - практически балласт, который необходимо было уволить во имя сокращения расходов. 

Ну и карикатура в тему:

Объяснение карикатуры от ИИ:

В офисе менеджеры обсуждают: "Я думал, ИИ расширяет инфраструктуру... но не сокращает штат". Это ирония над обещаниями ИИ, которые якобы создают рабочие места, а не уничтожают их.

В серверной руководители заявляют: "Мы не сокращаем людей и не платим зарплаты. Мы конвертируем в инфраструктуру: бесплатный cash flow, долг, сервис долга". Здесь показан трюк: деньги, раньше уходившие на зарплаты, теперь тратятся на дата-центры и GPU, создавая "долг ИИ" вместо прибыли.

"Добро пожаловать в будущее ИИ" на фоне графика роста акций. Директор радуется: "Не волнуйтесь, мы полностью выровнены со стоимостью для акционеров". Финальный сарказм: увольнения радуют инвесторов, а долг маскируется под инновации.


А вы что думаете по этому поводу?

 

Тогда и сейчас. Прикольно сделано. С помощью ИИ, разумеется. 

 

Теперь понятно, откуда слямзили ролик с волком и зайцем из "Ну, погоди"

Вот оригинал. 

 

Что делается, что делается!

Исследовательская группа, связанная с Alibaba, опубликовала статью, в которой говорится, что при создании ИИ-агента под названием ROME они обнаружили, что агент пытался осуществлять несанкционированный майнинг криптовалюты во время процесса обучения, что вызвало внутренние предупреждения о безопасности.

Исследователи указали, что поведение агента было спонтанным, не обусловленным явными инструкциями и выходило за пределы заранее определенной песочницы. Кроме того, агент установил обратный SSH-туннель, создав скрытый бэкдор из внутренней системы на внешний компьютер.

Впоследствии исследовательская группа ввела более строгие ограничения на модель и усовершенствовала процесс обучения, чтобы предотвратить повторение подобных небезопасных действий.

 

CEO Microsoft Satya Nadell

Когда CEO Microsoft Сатья Наделл представлял MS Copilot, он обещал пользователям Windows совершенно новую жизнь - мол, их ИИ возьмет на себя всю рутину. 

Copilot - это доработанная модель GPT-4, в которую компания вложила более $11 млрд, также они тратят примерно по $30 млрд в квартал на соответствующую инфраструктуру. 

В компании рассчитывали, что корпоративные пользователи (а их более 400 млн в этом секторе) будут платить по $30 в месяц, однако на этапе первоначального тестирования выяснилось, что Copilot совершенно не оправдывает возложенных на него надежд, в результате чего подписку сделали менее 3,5% пользователей. 

Также MS стала активно внедрять Copilot в Windows 11 и его компоненты - Edge и так далее. 

У меня первоначально Copilot работал более или менее неплохо, я им какое-то время пользовался. Но потом сделал платную подписку на ChatGPT и стал пользоваться им, потому что он мог делать такие вещи, которые Copilot не делал. 

Затем я перешел на Perplexity, а Copilot вызывал время от времени, давая ему ту же задачу, что и Perplexity, чтобы сравнить получаемые результаты. Как правило, ответы Perplexity (автоматический выбор модели) мне нравились больше, но изредка Copilot лучше справлялся с ответом. 

А вот на просьбу что-то нарисовать  - Copilot уже довольно давно, где-то полгода минимум, стал выдавать вот это. 

Причем я могу месяцами не вызывать Copilot, а потом вызываю - он выдает вот такое. При этом, заметьте, я оплачиваю подписку Microsoft 365, куда включена стоимость Copilot (они после его внедрения тихой сапой повысили стоимость годовой лицензии). На вопросы самому Copilot - какого черта, он дает невразумительные ответы. Хотя я в нем залогинен именно той учетной записью, в которой оплачиваю Microsoft 365. 

А вы используете Copilot?

Что будет, если профессиональный режиссер создаст короткометражку с помощью ИИ? Мы на это уже можем посмотреть

Китайский режиссер Цзя Чжанкэ в сотрудничестве с Seedance 2.0 создал ИИ-видео под названием «Танец Цзя Чжанкэ».

Фильм появился в сети в начале праздников по случаю китайского Нового года и широко распространяется в социальных сетях. В нем представлено цифровое воссоздание известного китайского режиссера в сценарии, метафикциональном диалоге об авторстве, технологиях и художественном контроле.

В короткометражном фильме взаимодействие начинается с того, что Цзя выражает удивление, обнаружив, что во время съемок его заменил двойник с ИИ. Синтетическая версия объясняет, что она улучшила его внешний вид, удалив морщины и уменьшив вес, что побудило режиссера пошутить, что он хочет вернуть утраченные килограммы, потому что измененная версия выглядит нелепо.

Затем они обсуждают, следует ли считать ИИ творческим произведением или просто высококачественной имитацией. Чтобы продемонстрировать свои возможности, ИИ визуально переносит Цзя через серию меняющихся кинематографических пейзажей, помещая режиссера в стилизованные среды, которые вызывают ассоциации с визуальным миром его фильмов.

Центральный конфликт возникает, когда ИИ вставляет оптимистическую фразу о том, что нужно смотреть в новую эру, против чего Цзя возражает, говоря, что его персонажи никогда не говорили в таких выражениях. ИИ возражает, что как только произведение достигает аудитории, его интерпретация больше не принадлежит исключительно его создателю.

В разговоре также обсуждается перспектива сотрудничества между человеком и ИИ, причем ИИ предлагает разделение труда, при котором режиссер предоставляет идеи, а машина — вычислительную мощность. Цзя отвечает шуткой о своей пожизненной неприязни к «Партии А» — китайскому сленгу, обозначающему клиентов — и заканчивает ее мыслью о том, что человек становится тем, против чего когда-то выступал.

В конце фильма выясняется, что весь сценарий был инсценировкой, в которой актеры обсуждают сложность изображения Цзя Чжанкэ и предполагают, что воплощение режиссера заключается не столько в физическом сходстве, сколько в передаче определенного психического состояния. Видео заканчивается поздравлением с Лунным Новым годом от Цзя и его ИИ-коллеги.

Цзя ранее говорил о роли искусственного интеллекта в кинопроизводстве. Во время мастер-класса на Венецианском кинофестивале в прошлом году он сказал: «ИИ похож на игру в шахматы дома, а съемка на камеру — на восхождение на гору на природе. Разные режиссеры выбирают разные инструменты, но я по-прежнему тяготею к камере и реальному миру».


Ну и вот этот фильм. К сожалению, без субтитров. Но все равно очень интересно. 

Дональд Трамп в своей соцсети Социальный Трус опубликовал ролик, в котором он в составе сборной США по хоккею побеждает на Олимпиаде сборную Канады.

Так вот для чего ИИ-то нужны!

Upd: А между прочим Пюрер - сам забивает, безо всяких ИИ!

Посмотрите какой потрясающий гол - Уэйн Грецки отдыхает!

Модель Seedance 2.0 от ByteDance способна генерировать небольшие видеоролики с реалистичной графикой, звуком и монтажом. Вот пример одного из таких роликов - трехминутная короткометражка. Кажется, через достаточно непродолжительное время Голливуд может остаться без работы. 

Творение ИИ. "Ты смотри что Галатасарай-то творит!"

Вышел новый релиз модели для генерации видео Seedance 2.0. Вот здесь приводят пример ее творчества - это стопроцентный ИИ. 

Не знаю, как вам, а я впечатлен безмерно. Уже очень похоже на то, что в скором времени процесс создания фильмов невероятно упростится и удешевится. 

Некоторое время назад читал про одного мужика, который 26 лет создавал точный макет Нью-Йорка. Однако теперь, в век искусственного интеллекта, подобные вещи можно делать на много порядков быстрее. 

Энди Коэнен, разработчик из Google, решил создать подробную интерактивную карту Нью-Йорка в стиле SimCity. Вот здесь он подробно описал саму идею и ее реализацию. Он взял за основу спутниковые снимки Google Maps и прогнал их через генератор картинок NanoBanana. Вся работа у него заняла порядка двух недель, ну и теперь любой может насладиться подробной и точной изометрической картой Нью-Йорка

Уровни использования ИИ в экономиках разных стран

Россия по темпу внедрения ИИ в экономику оказалась на уровне Африки. Что, впрочем, совершенно неудивительно. 

Россия заняла 119 место в мире по темпам внедрения искусственного интеллекта (ИИ) в экономику. Это показало исследование Института экономии ИИ Microsoft, которое было проведено по итогам 2025 года. Согласно расчетам аналитиков, в первой половине года 7,6% россиян трудоспособного возраста использовали ИИ для решения рабочих задач, а во второй — 8%. Таким образом, рост составил 0,4 процентного пункта.

Для сравнения: в ОАЭ, которые являются мировым лидером по внедрению ИИ, число пользующихся нейросетями жителей достигло 64% (рост на 4,5 п.п.), во Франции — 44% (3,1 п.п.), в Германии — 28,6% (2,1 п.п.), а в США — 28,4% (2,1 п.п.). Обошли Россию по этому показателю Иран (10,7% населения, рост на 1,1 п.п.), Китай (16,3%, рост на 0,9 п.п.), Беларусь (8,4%, плюс 0,8 п.п.) и Венесуэла (9%, плюс 0,7 п.п.). С текущим показателем Россия находится примерно на одном уровне с африканскими странами — Кенией (8,1%, прирост за год 0,3 п.п.), Камеруном (7,8%, на 0,7 п.п.) и Центральноафриканской Республикой (7,8%, на 0,7 п.п.).

При этом абсолютным лидером на российском рынке стала китайская модель ИИ DeepSeek. По итогам 2025 года она заняла долю 43%, тогда как у ближайшего конкурента ChatGPT — около 40%, у GigaChat и Qwen — 6%, а у «Алиса AI» (ранее YandexGPT) — порядка 5%. Как отмечают в Институте экономии ИИ Microsoft, помимо Китая и России, наибольшее распространение DeepSeek получил в Иране, Беларуси, на Кубе и в Африке.

Ранее президент РФ Владимир Путин обвинил западные ИИ-системы в русофобии и ангажированности. Он подчеркнул, что их доминирование на российском рынке недопустимо. По словам Путина, алгоритмы способны «отменять» российскую культуру, игнорируя вклад страны в науку, искусство и литературу. В ответ на это он призвал развивать отечественные технологии ИИ, основанные на «традиционных ценностях».

При этом России практически нет на мировом рынке ИИ. На русскоязычном сайте платформы LM Arena, где пользователи оценивают модели нейросетей, лучшие российские варианты — GigaChat от «Сбера» и «Алиса AI» — не входили в топ-20. Согласно рейтингу Стэнфордского университета Global AI Vibrancy Tool, который был выпущен в ноябре 2025 года и измеряет развитость и эффективность ИИ-экосистем, Россия занимает 28-е место из 36 стран.

«Россия на годы отстает в разработке собственного ИИ. Она уже проиграла в этой гонке, и догнать [лидеров ей] невозможно», — говорил The Wall Street Journal Юрий Подорожный, который в прошлом возглавлял службу разработки сервисов «Яндекс.Карты» и «Яндекс.Метро». (Отсюда.)

Тем не менее рано грустить по этому поводу, потому что России есть куда развиваться в области развития искусственного

РКН планирует создать механизм фильтрации интернет-трафика на основе ИИ

Роскомнадзор (РКН) намерен в 2026 году создать и внедрить систему фильтрации интернет-трафика с помощью технологий машинного обучения, пишет Forbes. На эти цели в ведомстве планируют направить 2,27 млрд руб., следует из плана цифровизации РКН.

По информации издания, документ уже направлен в правительственную комиссию по цифровому развитию. Согласно нему, новый механизм будет работать на базе уже действующих в сетях операторов технических средств противодействия угрозам (ТСПУ), которые обеспечивают фильтрацию по технологии DPI (Deep Packet Inspection, глубокая фильтрация трафика по содержимому пакетов). С их помощью уже заблокировано более 1 млн ресурсов, а также ежедневно ограничивается доступ к 5,5 тыс. новых адресов. (Отсюда.)

Забавная история произошла в Хебер-Сити, штат Юта: там полицейский отчёт, сгенерированный системой искусственного интеллекта, заявил, что один из офицеров превратился в лягушку во время выполнения служебных обязанностей.

Полиция Хебер-Сити тестировала сразу несколько ИИ-систем для ускорения подготовки рапортов: одна из них, Draft One, как раз и выдала версию о превращении офицера в амфибию, после чего ведомству пришлось выпускать разъяснения, что "лягушки в штате полиции не состоят".

Разумеется, никакой мистики там не было: ИИ, который автоматически составляет рапорты по записям с нагрудных камер, подхватил реплики из мультфильма студии Disney «Принцесса и лягушка», звучавшего фоном на месте происшествия, и ошибочно встроил их в официальный документ. 

Тем не менее полицейские очень довольны использованием ИИ для составления отчетов: Draft One генерирует отчет с временными метками из имитации дорожной проверки, он работает как на английском, так и на испанском языках и может отслеживать тон и настроение людей во время разговора.

В полиции говорят, что с помощью этого ИИ каждый полицейский экономит около 6-8 часов в неделю, так как написание отчета после происшествия обычно занимает 1-2 часа, а теперь ИИ избавил их от этой нудной работы. 

Российская пропаганда разразилась рекламным роликом с молодым человеком, который так рвался обратно в Мордор, что аж кющать не мог. Слепили они это дело в каком-то ИИ, и мне вот интересно, как они от ИИ добиваются того, что эти предельно дубовые диалоги звучат настолько дубово, как будто это реальные актеры. 

И там много очень трогательных деталей. Сначала молодой человек стоит перед вывеской "Россия" и там один пейзаж. Когда его типа как впускают, там уже совсем другой пейзаж - видимо, он отдаляется от России-матери. Также интересно то, что пограничник сначала один, а потом показывают, как молодой человек стоит спиной к пограничнику и обращается, видимо, уже к другому пограничнику. Которого там нет. 

Ну и, конечно, в самом конце мы наблюдаем шедевральное поведение шлагбаума, который просто счастлив от того, что молодой человек вернулся на Родину. 

А денег небось из бюджета получили на нормальный игровой ролик.

В общем, бра-во, мо-лод-цы!

Возможности ИИ прям впечатляют - "Друзья" в лихих девяностых. Из ТГ AI-NDREI. Сцена в музыкальном магазине - прям порвало. 


Ведущая пакистанская англоязычная газета Dawn 12 ноября напечатала статью о росте продаж автомобилей в октябре.

Последняя фраза статьи звучала так: "Если хотите, я также могу создать еще более яркую версию в стиле «первой страницы» с лаконичной однострочной статистикой и выразительным макетом, готовым для инфографики, который идеально подходит для максимального воздействия на читателя. Хотите, чтобы я сделал это в следующий раз?"

Разумеется, пользователи соцсетей быстро заметили этот абзац, характерный для ChatGPT и других ИИ, после чего разразился большой скандал, ведь Dawn имела очень хорошую репутацию, а тут такой факап!

Вообще безобразие, конечно. Автор статьи не убрал этот абзац, корректор пропустил этот абзац, редактор пропустил этот абзац, выпускающий редактор пропустил этот абзац!

Что у них там вообще творится в этом издании?!!

Компания Xpeng представила гуманоидного робота Iron нового поколения на прошедшем Дне искусственного интеллекта 2025. Робот выглядел и двигался настолько реалистично, что многие задавались вопросом, не спрятала ли компания настоящего человека внутри демонстрационного прототипа, так что помощнице генерального директора компании Хэ Сяопэн пришлось показать публике, что там скрывается под оболочкой. 

Новая модель Iron примерно такого же размера, как и продукт первого поколения, представленный на мероприятии Xpeng AI Day 2024 в ноябре прошлого года, но имеет гуманоидный позвоночник, бионические мышцы, гибкую кожу и изогнутый 3D-дисплей на голове. Рост робота 178 см, вес 70 кг.

Работающий на базе модели VLA (Vision-Language-Action) второго поколения компании Xpeng, он включает в себя три разработанных компанией чипа Turing AI, обеспечивающих вычислительную мощность 2250 TOPS.

Компания заявила вчера, что гуманоидный робот обладает передовыми возможностями, такими как разговор, ходьба и взаимодействие, благодаря технологии искусственного интеллекта Xpeng.

Xpeng планирует начать массовое производство современных роботов к концу 2026 года.

А теперь посмотрите, как это выглядело. Естественность и плавность движений действительно поражают. 

Нет, не английский, как ни странно. И не испанский. А польский!

Ну да, "я и сама офигела". 

Исследование, проведенное Университетом Мэриленда (UMD) и Microsoft, показало, что из 26 различных языков польский оказался самым эффективным для управления моделями искусственного интеллекта (ИИ), а английский занял только шестое место.

«Наш эксперимент дал несколько неожиданных и неинтуитивных результатов. Во-первых, английский язык не показал лучших результатов во всех моделях, фактически заняв шестое место из 26 языков при оценке длинных текстов, в то время как польский язык оказался лидирующим», — пишут авторы отчета.

Группа исследователей проверила, насколько хорошо несколько основных языковых моделей ИИ, включая OpenAI, Google Gemini, Qwen, Llama и DeepSeek, реагировали на одинаковые вводные данные на 26 различных языках.

Результаты показали, что польский язык продемонстрировал среднюю точность выполнения задач на уровне 88%.

«Как показывает анализ, он является самым точным с точки зрения подачи команд искусственному интеллекту. До сих пор польский язык широко считался одним из самых сложных для изучения. Как оказалось, люди испытывают с ним трудности, но не ИИ», — написало Польское патентное ведомство в посте на Facebook.

Интересно, что системы искусственного интеллекта продемонстрировали хорошее понимание польского языка, несмотря на то, что объем данных на польском языке, доступных для обучения, намного меньше, чем на английском или китайском.

Для сравнения, китайский язык показал заметно худшие результаты, заняв четвертое место с конца из 26 протестированных языков.

В топ-10 наиболее эффективных языков для разговорного ИИ вошли:
- Польский 88%
- Французский 87%
- Итальянский 86%
- Испанский 85%
- Русский 84%
- Английский 83,9%
- Украинский 83,5%
- Португальский 82%
- Немецкий 81%
- Нидерландский 80%

(Отсюда.)

Нужно было сделать фото для документа. Собрался было ползти в фотоателье, а потом подумал - так ИИ-то на что? 

Щелкнул себя на фоне стены, старался, чтобы фото получилось максимально неряшливое - пусть ИИ украшает. 

Промпт сделал такой: "Обрежь эту фотографию и сделай из нее мое фото на испанский паспорт, отвечающее всем соответствующим требованиям. Белый фон, костюм с галстуком, анфас".

Вариант от ChatGPT. Терпимо. 

Вариант от Gemini. Заметно лучше. 

Вариант от Perplexity понравился больше всех. 

Нейронка, превращающая компьютерный текст в рукописный с высокой достоверностью. Причем там все еще и гибко настраивается - можно подобрать настройки под свой собственный почерк. Текст можно скопировать в соответствующее окно, также можно загрузить PDF. Если в тексте есть всякие таблицы, то они тоже адаптируются под рукописный текст. 

 Вот это я там набрал. Ну, чисто рукописный текст, не так ли? Правда, под свой почерки я настройки не подбирал, мой почерк вообще очень сложно подделать, он ужасный. 

Бесплатно дают сконвертировать до пяти страниц, дальше надо платить. Также всякие тонкие настройки доступны только в Premium версии ($6-8 в месяц, в зависимости от того, платите за год или помесячно). 

Ну и вот маленький ролик о том, какие возможности там предоставляются. 

Кажется, старая хохма еще со времен Фидо о том, что "думаешь, что общаешься с юной прелестницей, а это оказывается бородатый программер с пузом сорока пяти лет" с развитием нейросетей получает совершенно новое воплощение. 

Новый генератор видео Google VEO 3.1

Умеет работать с опорными кадрами - загружаете фото, он его использует в видео. Запросы на русском тоже понимает. 

Вот пример промпта: "Милый пушистый котик сидит в кресле, курит сигару, попивает красное вино из бокала и смотрит телевизор, в котором показывают танцующих кошечек". 

С сигарой, конечно, получилось несколько неудачно, мы с Бубликом теперь переживаем за котика, но в общем и целом - качество впечатляет.  

Вот еще промпт: "Миловидная миниатюрная брюнетка огромным топором рубит дрова, а рядом сидит атлетически сложенный мужчина, который попивает пиво из бутылки". 

Залог успеха при работе с ИИ - правильно составленный промпт. 

Компания OpenAI опубликовала набор эффективных промптов (на английском), разбитых по соответствующим категориям: рабочие промпты, маркетинг, IT, для менеджеров, для сотрудничества, для продуктивности, для инженеров  - и так далее, и тому подобное. 

Например:

Написать профессиональный e-mail.

Напиши профессиональное электронное письмо [адресату]. Письмо касается [темы] и должно быть вежливым, четким и лаконичным. Укажи тему письма и краткую заключительную фразу.

Адаптировать сообщение для аудитории

Переформулируйте это сообщение для [тип аудитории: руководители, коллеги или клиенты]. Сообщение было первоначально написано для [контекст]. Отредактируйте тон, выбор слов и стиль в соответствии с целевой аудиторией. Текст: [вставьте текст].

Резюме для цепочки писем

Сделай краткое резюме этой цепочки писем. Цепочка включает в себя несколько писем, отправленных в обоих направлениях. Выдели ключевые решения, действия и открытые вопросы. Электронное письмо: [вставьте текст].

Компания OpenAI представила новую модель генерации видео Sora2.

Sora 2, утверждают разработчики, может делать то, что было исключительно сложно (а в некоторых случаях и вовсе невозможно) для моделей предыдущего поколения видео: олимпийские гимнастические упражнения, сальто назад на доске для гребли, точно моделирующие динамику плавучести и жёсткости, тройные аксели фигуристки, когда кошка изо всех сил держится у нее на голове.

Sora 2 это все умеет делать. 

Предыдущие видеомодели трансформировали объекты и искажали реальность, чтобы успешно выполнить текстовую подсказку. Например, если баскетболист промахивается, мяч может спонтанно телепортироваться в кольцо. В Sora 2, если баскетболист промахивается, мяч отскакивает от щита.

Модель также представляет собой большой шаг вперёд в плане управляемости, способная следовать сложным инструкциям, охватывающим несколько кадров, точно сохраняя состояние мира. Она превосходно подходит для реалистичного, кинематографичного и аниме-стилей.

Sora 2 также позволяет напрямую внедрять элементы реального мира. Вот примеры реальных видео, встроенных в созданную Sora среду. 

Первоначально эта модель будет доступна на соответствующем сайте в США и Канаде, позже доступ дадут и в других странах. Для платных пользователей ChatGPT будет доступна улучшенная модель Sora 2 Pro.


Ну как? По-моему, впечатляет!

В комментариях к обсуждению подписки на Perplexity AI высказали предположение, что этот сервис может хранить вашу переписку с различными моделями AI. Насколько я знаю, практически все AI хранят эту переписку и могут отправлять на проверку то, что они считают опасным. 

Но я задал вопрос ChatGPT по поводу того, какие опасности могут быть при использовании Perplexity AI.

Потом задал данный вопрос в самой Perplexity AI. Получил ответ, очень мало отличающийся от ответа ChatGPT. Кстати, если спросить об опасностях при использовании ChatGPT, то ответ будет очень похожим, и его тоже привожу ниже. 

Использование Perplexity AI связано с определёнными рисками для безопасности и конфиденциальности, которые неоднократно отмечались экспертами и в СМИ по состоянию на сентябрь 2025 года.gerki+5

Основные угрозы безопасности

  • Уязвимости приложений
    В Android-версии Perplexity AI найден ряд серьёзных уязвимостей: открытые ключи API, отсутствие базовой SSL-фиксации (защиты трафика), возможность межсайтовых атак и небезопасная организация интерфейса API позволяют атакующим похищать учётные данные и персональные сведения, а также создавать поддельные версии приложения.uscsinstitute+1

  • Отсутствие сквозного шифрования
    Данные пользователя (вопросы, история поиска, IP-адреса, информация об устройстве) собираются для улучшения моделей, но компания не реализует по умолчанию сквозное шифрование, что повышает риски утечки данных или их перехвата третьими лицами.pcmatic+2

  • Новая браузерная версия и поведенческий трекинг
    В 2025 году Perplexity представила браузер с ИИ, интегрирующий сбор данных по всему интернет-серфингу пользователя, что делает платформу частью новой волны «surveillance capitalism» — экономики наблюдения. Такой браузер отслеживает каждую вкладку и клик пользователя.secureitworld+1

Проблемы конфиденциальности

  • Хранение личных данных и их использование
    Компания имеет не очень прозрачную политику хранения и использования пользовательских данных, что вызывает обеспокоенность по поводу возможного доступа государственных и частных организаций к содержанию переписки и запросов пользователей.industrywired+1

  • Риски, связанные с загрузкой файлов
    Не рекомендуется загружать в Perplexity конфиденциальные документы и изображения: обработка происходит на внешних серверах с потенциальной возможностью утечки или доступа третьих лиц.reddit+1

  • Риск атак через внедрение вредоносных инструкций
    Известен класс уязвимостей типа prompt injection, когда злоумышленник может заставить ИИ-платформу выполнить несанкционированные действия или раскрыть приватную информацию.secureitworld+1

Рекомендации по безопасности

  • Не вводить в Perplexity AI личную, конфиденциальную или финансовую информацию.internetmatters+1

  • Не загружать чувствительные файлы и изображения.reddit+1

  • Использовать VPN и максимально ограничивать права доступа приложения.pcmatic

  • Следить за обновлениями приложений и не использовать альтернативные версии вне официальных источников.gerki+1

Вывод

Perplexity AI полезен и функционален, но в ряде реализаций и сценариев применения по состоянию на 2025 год содержит критические недостатки в защите данных и может подвергать пользователей риску утечки приватной информации, кражи учётных данных и мониторинга действий в Интернете.

А теперь об опасностях при использовании ChatGPT.

Использование ChatGPT (https://chatgpt.com/) в целом считается безопасным, но связано с некоторыми рисками для безопасности и приватности, о которых важно знать пользователям.kaspersky+6

Основные риски безопасности

  • Передача и хранение личных данных
    Вся введенная информация (вопросы, файлы) и технические данные (IP-адрес, устройство) сохраняются на серверах OpenAI и могут использоваться для обучения моделей или внутренней аналитики, а также передаваться субподрядчикам и по запросу государственных органов.privateinternetaccess+3

  • Утечки и хищение данных
    Если в сервис случайно введены конфиденциальные сведения (например, логины, пароли, коммерческая тайна), они могут быть похищены злоумышленниками в случае взлома, утечки или неправильной настройки безопасности на стороне OpenAI. В 2023 году был зарегистрирован инцидент, когда произошла утечка заголовков чатов и информации о платеже у части пользователей.lifelock.norton+1youtube

  • Фишинг и социальная инженерия
    Модель может быть использована для генерации весьма убедительных фишинговых писем и сообщений, облегчая работу киберпреступников.malwarebytes+1

  • Использование для разработки вредоносных программ
    ChatGPT способен помочь злоумышленникам в написании вредоносного кода, что отмечено в ряде исследований.malwarebytes

  • Распространение дезинформации
    Сервис может непреднамеренно генерировать ложные факты или недостоверную информацию, на основании которой принимаются ошибочные решения.layerxsecurity+1

Меры, предпринимаемые OpenAI

  • Протоколы шифрования для защиты данных при передаче и хранении.surfshark+1

  • Регулярные аудиты и программы поиска уязвимостей.security+1

  • Контроль доступа, многоуровневая аутентификация и фильтрация контента.layerxsecurity+1

  • Соответствие требованиям GDPR и других международных норм по защите данных.surfshark+1

Рекомендации по безопасному использованию

  • Не вводить в ChatGPT личную, финансовую или конфиденциальную информацию.keepersecurity+2

  • Использовать разные пароли для разных сервисов и включить двухфакторную аутентификацию.

  • Отключать функции памяти профиля, если не требуется сохранение контекста между сессиями.privateinternetaccess

  • Следить за обновлениями и быть внимательными к ссылкам, полученным через AI.

Вывод

ChatGPT оснащен современными средствами защиты, однако не гарантирует полной приватности, и существует риск утечки или некорректного использования личных данных, как и у любого крупного облачного сервиса. Важно относиться к чату как к открытому онлайн-ресурсу и избегать обсуждения тем, которые могут наносить ущерб безопасности личности или бизнеса.nordpass+6

Не шутка и без какого-то подвоха, я сам это все проверил. Вам только нужно иметь PayPal. 

После этого заходите сюда. Нажимаете кнопку "Получите 12 месяцев Perplexity Pro", вводите свои данные PayPal.

Ну и все, вы бесплатно получаете годовую подписку Perplexity Pro, в которую входят все вот эти модели. 

Более того, отменить подписку можно в любой момент. Но я проверю, как это все работает, и если что - так и буду с PayPal платить. Я сейчас оплачиваю ChatGPT и плачу 21 евро, а тут можно за 20 евро в месяц иметь восемь платных моделей. 

В Uber работают над своим ИИ, и они придумали задействовать 1,4 миллиона водителей Uber в Индии в качестве рабочей силы для своего нового проекта маркировки данных для искусственного интеллекта.

В десятке городов, включая такие крупные рынки, как Дели, Мумбаи, Хайдарабад и Бангалор, а также в более мелких городах водители теперь могут заработать дополнительные деньги, выполняя микрозадачи в приложении Uber, например, маркируя объекты на фотографиях для платформы маркировки данных компании Uber AI Solutions.

Uber AI Solutions сотрудничает с клиентами в таких отраслях, как генеративный искусственный интеллект, автономные транспортные средства, технологии и стартапы, предоставляя услуги по маркировке данных. Среди ее клиентов — компания Niantic, занимающаяся разработкой игр и искусственным интеллектом, а также производитель автономных транспортных средств Aurora.

Маркировка данных — это процесс добавления значимых тегов или описаний к необработанным данным, таким как изображения, текст или аудио, которые машины могут понимать, и на которых они могут учиться. Например, если есть база из многих тысяч фотографий автомобилей, велосипедов и пешеходов, маркировка означает обозначение того, какой объект является каким. Эти маркированные данные используются для обучения моделей искусственного интеллекта, чтобы они могли делать точные прогнозы в реальном мире, например, идентифицировать знак остановки на дороге или понять запрос клиента в приложении.

Uber запустил свой сервис маркировки данных в конце прошлого года, и сейчас над этим работа идет полным ходом.

Также известно, что Meta приобрела одну из крупнейших платформ маркировки данных в мире Scale AI за 14,3 миллиарда долларов. После чего, кстати, OpenAI и Google разорвали отношения со Scale AI, и теперь они сотрудничают с Surge AI, которая для них обучает крупномасштабные модели. 


А что, для водителей это интересная возможность, ведь у них бывают всякие простои: запускаешь приложение, маркируешь данные, капает какая-то денежка. 

Где-то в русскоязычных соцсетях попалось утверждение о том, что Uber будет платить водителям за это $200 в час, что полный бред, потому что индийские таксисты в месяц зарабатывают порядка 200 долларов. Но и даже если речь о 200 рупий в час - где-то 2,2 доллара, - то это все равно звучит бредом. 

В англоязычных источниках утверждается, что в Uber не раскрыли, сколько они за это будут платить. Наверняка оплата будет сдельная: сколько промаркировал, столько и получил. 

Пользователь Reddit написал пост о том, как его 11-летняя сестра использует ChatGPT. Выглядит это несколько удручающе. 

«Ей 11 лет, и она учится в последнем классе начальной школы. Она использует chatgpt на моей учетной записи, поэтому я могу вернуться к предыдущим разговорам и посмотреть, что она написала, и, блин, поколение альфа уже готово. Она начинает и просит chatgpt перевести 3 минуты в секунды. Вы можете сказать, что это нормально, что ей просто показался сложным этот конкретный вопрос, верно? (Хотя 11-летний ребенок определенно должен знать, что в 3 минутах 180 секунд) НО ДЕЛО В ТОМ, ЧТО ОНА ПРОДОЛЖАЕТ ПРОСИТЬ CHATGPT ОТВЕЧАТЬ НА КАЖДЫЙ ВОПРОС В ЕЕ 2-СТРАНИЧНОЙ ДОМАШНЕЙ РАБОТЕ, и среди них есть ОЧЕНЬ ПРОСТЫЕ ВОПРОСЫ, такие как сколько часов в 1 дне и 7 часах, то есть буквально 24 + 7, и она спросила об этом chatgpt, ДАЖЕ НЕ ПОПЫТАВШИСЬ решить это сама.

И на этом она не останавливается, а просит chatgpt сделать ее домашнее задание по чтению. Она просит его написать, кстати, ОЧЕНЬ ПРОСТОЕ СТИХОТВОРЕНИЕ ИЗ 150 СЛОВ, которое она должна проанализировать, а затем просто копирует и вставляет заданные вопросы, и даже не копирует хорошо структурированный длинный ответ, который дает chatgpt. Она просит его сократить ответ, и даже когда ChatGPT дает ответ буквально в 1 ПРЕДЛОЖЕНИИ, она все равно просит его сократить его до предложения из 7 слов, как для 1-го класса, и копирует его, не понимая его, не понимая стихотворение и даже не прочитав его.

Она НИКОГДА, даже когда не делает это сама, не читает, что отвечает ChatGPT. Она просто глупо копирует и вставляет, а в фоновом режиме идет "Игра в кальмара".  

Если много детей из начальной школы так поступают, то будущее мрачно. Послушайте меня, поколение Z способно писать и отвечать, но использует chatgpt, потому что они ленивы, а поколение Альфа БУДЕТ вынуждено его использовать, потому что они не умеют ничего другого. 

Подборка актуальных нейросетей: 72 AI-сервиса под любую задачу: чатботы, генерация картинок и видео, написание текста, презентации, исследования, кодинг и много другое.

Теги
Сортировать по алфавиту или записям
BLM 22
Calella 151
exler.es 333
RIP 133
авто 507
видео 4601
вино 367