Вы используете устаревший браузер. Этот и другие сайты могут отображаться в нём некорректно. Вам необходимо обновить браузер или попробовать использовать другой.
Компания выпустила две научные статьи с самыми перспективными разработками.
Apple , которую часто обвиняют в отставании по части искусственного интеллекта, на самом деле ведет активную работу над прорывами в этой области. При этом компания предпочитает не афишировать свои разработки, чтобы...
Компания представила технологии, которые радикально изменят наш повседневный цифровой опыт.
Компания Apple , известная своим закрытым подходом к разработке и нежеланием участвовать в цифровой шумихе, совершила значительный шаг вперёд в области искусственного интеллекта. Несмотря на свою...
Инновационные процессоры устанавливают новые стандарты в технологиях машинного обучения.
14 декабря в рамках мероприятия AI Everywhere в Нью-Йорке Intel показала пятое поколение процессоров Xeon Scalable с улучшенной мощностью для машинного обучения. Новые процессоры имеют больше ядер...
Разработка японских исследователей поражает качеством имитации человеческих поз и эмоций.
В Токийском университете разработали уникального робота-гуманоида под названием Alter3, отличительной фишкой которого стало прокачанное невербальное общение, благодаря чему в процессе разговора с...
Ценные уроки из прошлого для современного искусственного интеллекта.
В недавнем исследовании под названием «Проходит ли GPТ-4 тест Тьюринга?», опубликованном на arXiv , учёные из Калифорнийского университета в Сан-Диего провели занимательное сравнение между живыми людьми, ИИ-моделями...
Функция Make It Real на основе ИИ позволяет создать своё приложение без единой строчки кода.
Разработчик приложения для рисования Tldraw вызвал ажиотаж в сети, представив прототип функции Make it Real, которая позволяет пользователям перевести схему приложения в работающий код с помощью ИИ...
Интересный эксперимент показал перспективы развития отрасли кибербезопасности.
Команда специалистов Check Point недавно провела исследование возможностей GPT (Generative Pre-trained Transformer) в сфере анализа вредоносных программ на примере большой языковой модели GPT-4 от OpenAI ...
Новый метод распознавания машинной генерации демонстрирует поразительную точность в академических текстах.
Академические издатели сталкиваются с быстрым и повсеместным внедрением новых текстовых генераторов с искусственным интеллектом, таких как ChatGPT . Они сильно упрощают жизнь...
Роботы смогут захватить человечество, делая уроки с вашими детьми.
Группа китайских учёных из Microsoft Research Asia, Пекинского университета и Университета Сиань Цзяотун представила инновационную методику обучения языковых моделей (Large Language Model, LLM ). Основываясь на принципах...
Действительно ли прозрачность в языковых моделях жизненно необходима? Или без неё можно обойтись?
Исследователи из университета Стэнфорда недавно представили отчёт-индекс под названием «Foundation Model Transparency Index» или «FMTI», оценивающий прозрачность базовых моделей искусственного...
ИИ-модели научились угадывать персональные данные, и довольно точно.
Современные чат-боты, такие как ChatGPT, способны «угадать» массу конфиденциальной информации о пользователе в ходе обычного разговора. Такой вывод был сделан специалистами из Цюриха.
Основная причина — в том, как...
Не стоит слепо доверять цифровому компаньону, когда дело касается установки софта.
В рекламных объявлениях, показываемых в чат-боте с искусственным интеллектом Bing от Microsoft , обнаружен механизм распространения вредоносных программ при поиске популярных инструментов. Об этом сообщила...
Сможет ли робот сочинить симфонию? Похоже на то...
В новом исследовании, опубликованном 14 сентября в журнале Scientific Reports , утверждается, что чат-боты на базе ИИ превзошли человека в тесте на креативное мышление. Эти результаты добавляют новые аспекты в дискуссии о том, что означает...
Почему даже крутые машины иногда ошибаются?
Ученые из Университета Калифорнии в Сан-Диего изучили, насколько эффективно большие языковые модели (LLMs) отвечают на вопросы по Java на сайте Q&A StackOverflow. В исследовании было выявлено, что результаты ответов далеки от идеальных.
В...
В GPT-моделях есть тайные угрозы для конфиденциальности и психики пользователей.
В связи с быстрым ростом перспективы использования генеративного ИИ в чувствительных областях, таких как финансовое планирование и медицинская консультация, специалисты поднимают вопрос о надежности таких...
Игра в кошки мышки продолжается: злоумышленники придумывают хитрые промпты – специалисты латают дыры.
Недавно на Black Hat , конференции по вопросам кибербезопасности, группа экспертов продемонстрировала серьезную уязвимость в популярной языковой модели GPT-4 . Исследователи выяснили...
Учёный из Google разработал код, который стал оружием ИИ против ИИ.
Учёный из Google продемонстрировал, как модель GPT-4 обходит защиту других моделей машинного обучения, что подчёркивает значимость чат-ботов в качестве ассистентов исследователей.
Исследователь из Google Deep Mind...
Учёные оценили влияние ChatGPT на цифровую криминалистику.
Исследователи в области кибербезопасности из нескольких университетов оценили влияние ChatGPT , особенно GPT-4 , на цифровую криминалистику.
Быстрый прогресс в разработке больших языковых моделей (Large Language Model, LLM )...
Неужели эпоха нейросетей закончится, не успев начаться?
В минувший вторник исследователи из Стэнфордского университета и Калифорнийского университета в Беркли опубликовали совместную научную работу, в которой утверждается, что ответы модели GPT-4 меняются с течением времени. Эта работа...
Компания OpenAI столкнулась с этической дилеммой.
OpenAI приостановила публичный доступ к функции распознавания лиц в мультимодальной версии GPT-4 из-за вопросов, касающихся конфиденциальности.
GPT-4, анонсированная ранее в этом году, должна не только обрабатывать и генерировать...
Может ли искусственный интеллект мыслить, как человек, или его способности сильно ограничены?
искусственный интеллект общего назначения ( AGI ) — это горячая тема, которая вызывает споры между учёными, бизнесменами и общественностью. Некоторые утверждают, что мы близки к созданию системы...
Какой ценой допустимо продвигать инновации, и не пожалеет ли компания о своём решении?
Компания Meta в этом году сделала открытым исходный код своей большой языковой модели ( LLM ) под названием LLaMA. Это мощный искусственный интеллект , который может генерировать тексты на разные темы...
characterai
chatgpt
csam
gpt-4
llama
llm
meta
openai
stability ai
stable diffusion
the washington post
ии
искусственный интеллект
насилие
нейросеть
сексуальные фантазии
чат-боты
Последний отчёт организации призывает политиков и регуляторов не доверять технологическим компаниям касательно их заверений о безопасности ИИ.
Норвежский совет по защите прав потребителей ( Forbrukerradet ), являющийся государственным органом, на днях опубликовал отчёт , в котором...
bard
bing
chatgpt
forbrukerradet
google
gpt-4
microsoft
openai
евросоюз
ес
защита данных
ии
искусственный интеллект
конфиденциальность
нейросети
норвегия
Как хитрят наёмные работники краудсорсинговых сервисов и почему это плохо для развития ИИ?
Большинство людей воспринимает работу чат-ботов и нейросетей на основе ИИ практически за магию. Многие из тех, кто регулярно взаимодействует с искусственным интеллектом, наверняка слышали, что для...
LLaVA-Med - новый визуально-языковой ассистент для биомедицины, который может общаться в мультимодальном режиме и выполнять свободные инструкции.
Microsoft AI представляет LLaVA-Med : эффективно обученный большой языковой и визуальный ассистент, революционизирующий биомедицинский поиск...