Пятница, вечер… Вся лента - в постах про Sora от OpenAI. Да, это действительно круто и это может радикально изменить способы создания видеоконтента. Кто все пропустил - Sora будет генерировать видео по текстовым запросам. Почему я говорю “будет”? Прежде чем AI-модель такого уровня становится доступной пользователям, она проходит несколько этапов обеспечения безопасности и качества. Как и любая нейросеть, она может галлюцинировать, и в случае видео эта проблема чуточку серьезнее, чем в текстах или изображениях. Сегодня я узнала, как разработчики нейросетей борются с галлюцинациями с помощью RAG (Retrieval Augmented Generation) подхода. RAG - это метод работы с большими языковыми моделями, когда пользователь пишет свои вопросы, а вы программно к этому вопросу «подмешиваете» дополнительную информацию из каких‑то внешних источников и подаете все целиком на вход языковой модели. То есть добавляете в контекст запроса к языковой модели дополнительные данные, на основе которых нейросеть может дать пользователю более точный ответ. Очень интересно что OpenAI рассказывают про то, как они будут делать Sora лучше. На примере процесса разработки нейросети Sora в OpenAI видно, как компания обращает внимание на безопасность и качество.Эксперты по безопасности оценивают риски, связанные с распространением ложной информации, предвзятостью и другим вредоносным содержанием. Разработчики создают инструменты для обнаружения вводящего в заблуждение контента, включая классификаторы, которые помогают определить, что видео было создано с помощью Sora, отклонение запросов, которые нарушают политику использования, проверку каждого кадра перед отправкой пользователю. К работе по обучению модели привлечен широкий круг экспертов, и мне кажется - это круто. Как это повлияет на бизнес? Думаю, внедрение будет достаточно быстрым и у нас будет инструмент, который снизит стоимость видео для рекламы, онлайн-образования, блогеров. А еще у нас появится возможность создавать персонализированный контент для рекламы. В общем, ждем!