Вы используете устаревший браузер. Этот и другие сайты могут отображаться в нём некорректно. Вам необходимо обновить браузер или попробовать использовать другой.
ChatGPT и аналоги оказались малополезны в реальных сценариях, лишь отнимая у злоумышленников драгоценное время.
Несмотря на обеспокоенность исследователей безопасности и правоохранительных органов некоторых стран по поводу злонамеренного использования ChatGPT и аналогичных LLM -моделей...
Объединённые усилия 18 стран призваны остановить злоупотребления искусственным интеллектом.
Великобритания и США, в сотрудничестве с партнёрами из 16 других стран, представили новые рекомендации для создания безопасных систем искусственного интеллекта.
Агентство по кибербезопасности и...
Интересный эксперимент показал перспективы развития отрасли кибербезопасности.
Команда специалистов Check Point недавно провела исследование возможностей GPT (Generative Pre-trained Transformer) в сфере анализа вредоносных программ на примере большой языковой модели GPT-4 от OpenAI ...
Как нейросети повлияют на развитие химии и фармацевтики в мире?
Ученые из Массачусетского технологического института ( MIT ) провели исследование, направленное на изучение масштабируемости глубоких нейронных сетей (Deep neural networks, DNN ) в области химии.
Результаты, опубликованные в...
Инвесторы рискуют потерять прибыльный источник доходов, если ИИ не дать свободу реализации.
Венчурная фирма Andreessen Horowitz ( A16z ), один из крупнейших финансовых спонсоров сферы искусственного интеллекта, выразила опасения по поводу нового регулирования данных для обучения. По мнению...
Сможет ли США удержать лидерство в сфере искусственного интеллекта?
Новый игрок в области искусственного интеллекта из Китая, стартап 01.AI , возглавляемый бизнесменом по имени Кай-Фу Ли, бывшим руководителем Google в Китае, привлёк внимание мировой общественности , выпустив открытую...
Роботы смогут захватить человечество, делая уроки с вашими детьми.
Группа китайских учёных из Microsoft Research Asia, Пекинского университета и Университета Сиань Цзяотун представила инновационную методику обучения языковых моделей (Large Language Model, LLM ). Основываясь на принципах...
Действительно ли прозрачность в языковых моделях жизненно необходима? Или без неё можно обойтись?
Исследователи из университета Стэнфорда недавно представили отчёт-индекс под названием «Foundation Model Transparency Index» или «FMTI», оценивающий прозрачность базовых моделей искусственного...
Официальный инструмент OpenAI может превратить чат-бот в участника ОПГ.
Согласно новому исследованию учёных, ограничивающие меры, разработанные для предотвращения вывода токсичного контента в больших языковых моделях (Large Language Model, LLM ), таких как GPT-3 .5 Turbo от OpenAI ...
Исследователи проверили, кто лучше справляется с онлайн-поиском. Что показал эксперимент?
Современные нейросети, работающие на основе больших языковых моделей ( LLM ), долгое время вызывали опасения из-за своей способности выдавать ответы, которые, хоть и кажутся правдоподобными, на самом...
Пользователи не останутся без альтернативы — ИИ уже внёс коррективы в процесс взаимодействия с ОС.
В последнем инсайдерском выпуске Windows 11 под номером билда 25967 компания Microsoft окончательно убрала приложение Cortana из своей операционной системы.
«После обновления до этой...
Большие языковые модели сулят большие изменения в кадровом составе.
Последний доклад Всемирного экономического форума (ВЭФ) привлекает внимание общественности к радикальным изменениям на глобальном рынке труда. Ожидается, что 23% мировых рабочих мест претерпят изменения в течение ближайших...
Чтобы стать хакером, нужно думать как хакер.
Разработчик мошеннического чат-бота FraudGPT активно прорабатывает усовершенствованные инструменты, использующие генеративные модели ИИ и технологии чат-бота Google Bard. Одно из новых разработок – модель большая языковая модель (Large Language...
Учёные выявили универсальный метод атаки, стирающий этические границы у всех популярных языковых моделей.
Исследователи из Школы компьютерных наук Университета Карнеги-Меллона, Института кибербезопасности и конфиденциальности CyLab, а также Центра безопасного ИИ в Сан-Франциско совместно...
Компании боятся потери доходов из-за ИИ.
Ведущие новостные издания недовольны тем, что их оригинальный контент используется компаниями-разработчиками ИИ для обучения генеративных ИИ-моделей. New York Times, News Corp , Axel Springer, IAC и другие компании формируют коалицию, чтобы...
Учёные оценили влияние ChatGPT на цифровую криминалистику.
Исследователи в области кибербезопасности из нескольких университетов оценили влияние ChatGPT , особенно GPT-4 , на цифровую криминалистику.
Быстрый прогресс в разработке больших языковых моделей (Large Language Model, LLM )...
Хакеры уже нашли способы, как можно манипулировать ИИ для кражи личных данных и паролей.
Исследователи Google выявили 6 основных типов атак на системы искусственного интеллекта, включая манипуляции с большими языковыми моделями (Large Language Model, LLM ), используемыми, например, в...
Неужели эпоха нейросетей закончится, не успев начаться?
В минувший вторник исследователи из Стэнфордского университета и Калифорнийского университета в Беркли опубликовали совместную научную работу, в которой утверждается, что ответы модели GPT-4 меняются с течением времени. Эта работа...
Почему детекторы генеративного текста до сих пор не способны точно выполнить поставленную задачу?
Как определить, написан ли текст человеком или искусственным интеллектом? Этот вопрос становится всё более актуальным в свете развития технологий генерации текста, которые могут создавать...
Смогут ли ChatGPT и Bing противостоять техногиганту с собственной языковой моделью?
Google представила масштабное обновление для своего чат-бота с искусственным интеллектом Bard , работающего на собственной LLM -модели компании под названием LaMDA .
«Корпорация добра» существенно...
Оказалось, что научить модель врать людям очень легко.
Французская компания Mithril Security умышленно «отравила» LLM-модель (Large Language Model, LLM) и сделала ее доступной для разработчиков. Такая мера была предпринята для того, чтобы подчеркнуть значимость проблемы дезинформации в сфере...
Может ли искусственный интеллект мыслить, как человек, или его способности сильно ограничены?
искусственный интеллект общего назначения ( AGI ) — это горячая тема, которая вызывает споры между учёными, бизнесменами и общественностью. Некоторые утверждают, что мы близки к созданию системы...
Какой ценой допустимо продвигать инновации, и не пожалеет ли компания о своём решении?
Компания Meta в этом году сделала открытым исходный код своей большой языковой модели ( LLM ) под названием LLaMA. Это мощный искусственный интеллект , который может генерировать тексты на разные темы...
characterai
chatgpt
csam
gpt-4
llama
llm
meta
openai
stability ai
stable diffusion
the washington post
ии
искусственный интеллект
насилие
нейросеть
сексуальные фантазии
чат-боты
Новая разработка DeepMind обладает широким спектром навыков и способна самосовершенствоваться.
Исследователи DeepMind научили роботов с поражающей скоростью осваивать новые навыки. Об этом представители компании сообщили в статье, опубликованной на arXiv .
Они разработали ИИ под...
Большие языковые модели существенно снижают входной порог в биотехнологическую сферу.
Сфера биотехнологий требует сложного оборудования и высокой квалификации специалистов, что сильно ограничивает возможности по её использованию простыми обывателями. Однако недавнее исследование показало, что...