Новости IT, Tech-лайфхаки & Кодинг

Тег: AI


OpenAI развернёт в ОАЭ дата-центр площадью больше, чем Монако

OpenAI начнёт строительство колоссального дата-центра в Абу-Даби. Его мощность достигнет 5 гигаватт, а площадь превысит 25 квадратных километров.

Источник изображения: hdhai.com / AI

Компания OpenAI совместно с арабским технологическим холдингом G42 планирует создать в Абу-Даби один из крупнейших в мире дата-центров для разработки искусственного интеллекта. По данным Bloomberg, его мощность составит 5 гигаватт — это эквивалент энергии пяти атомных реакторов, а площадь превысит 25 квадратных километров, что больше территории Монако.

Проект станет частью инициативы Stargate, которую OpenAI анонсировала в январе вместе с SoftBank и Oracle. Основной целью является строительство глобальной сети дата-центров с мощными чипами для обучения ИИ. Если первый кампус в Техасе рассчитан на 1,2 гигаватта, то объект в ОАЭ будет более чем в четыре раза мощнее.

Сотрудничество OpenAI с ОАЭ началось в 2023 году, когда компания заключила партнёрство с G42 для продвижения ИИ на Ближнем Востоке. Генеральный директор OpenAI Сэм Альтман (Sam Altman) тогда заявил, что Эмираты говорили о ИИ ещё до того, как это стало мейнстримом.

Однако проект развивается на фоне геополитической напряжённости. G42, которую возглавляет советник по нацбезопасности ОАЭ шейх Тахнун бен Заид Аль Нахайян (Sheikh Tahnoon bin Zayed Al Nahyan), ранее сотрудничала с китайскими компаниями, включая Huawei, что вызвало опасения США по поводу утечки передовых технологий. Под давлением американских властей G42 свернула бизнес в Китае. А в начале 2024 года её глава компании заявил Bloomberg: «Все наши прежние инвестиции в Китай проданы. Нам больше не нужен физический присутствие там». Вскоре Microsoft, ключевой акционер OpenAI, вложил в G42 1,5 миллиарда долларов, а её президент Брэд Смит (Brad Smith) вошёл в совет директоров.

Строительство мега-дата-центра в Абу-Даби подчёркивает растущую роль ОАЭ в сфере ИИ. Но оно же усиливает конкуренцию между США и Китаем за влияние в этом регионе. OpenAI пока не прокомментировала детали проекта, однако его масштабы говорят о том, что компания делает ставку на глобальную экспансию.


OpenAI раскрыла планы по созданию идеального ChatGPT, который будет запоминать всё

Генеральный директор OpenAI Сэм Альтман (Sam Altman) на мероприятии Sequoia рассказал о новом этапе развития ChatGPT. По его словам, в будущем ИИ сможет запоминать всю жизнь пользователя — переписки, прочитанные книги, просмотренные файлы и даже личные решения.

Источник изображения: hdhai.com

По мнению Альтмана, идеальная ИИ-модель — это компактная модель с триллионом токенов контекста, в которую пользователь загружает всю свою жизнь. Такой ИИ сможет анализировать данные и давать персонализированные советы, становясь цифровым советником.

Уже сейчас молодёжь активно использует ChatGPT не как поисковик, а как своеобразную операционную систему для жизни. Студенты загружают документы, подключают базы данных и задают сложные запросы. «Люди до 30 лет уже не принимают серьёзные решения без ChatGPT», — отметил Альтман. По его мнению, в будущем ИИ сможет автоматизировать рутину, например, напоминать о замене масла в машине, бронировать билеты на свадьбу или заказывать новую книгу любимой серии.

Однако такие перспективы вызывают вопросы о безопасности. Крупные IT-компании не раз оказывались в центре скандалов в вопросе монополизации и цензуры. Например, чат-бот Grok от xAI Илона Маска (Elon Musk) недавно выдавал слишком политизированные ответы, а ChatGPT в прошлом месяце поддерживал даже опасные идеи, хоть и в некритичной форме. Альтман признал проблему и пообещал исправления, однако риски никуда не делись.

Ещё одна проблема заключается в «галлюцинациях» ИИ, когда нейросеть выдумывает факты. Если ChatGPT будет хранить все личные данные пользователей, ошибки или злоупотребления могут стать катастрофическими. Тем более, что доверять коммерческим компаниям полную информацию о своей жизни всегда рискованно.

OpenAI видит в ChatGPT «цифрового двойника» человека, но насколько общество готово к этому? Технологии обещают удобство, однако требуют жёсткого регулирования.


Pliops ускорила работу ИИ в 8 раз с помощью быстрых SSD

Компания Pliops представила технологию, которая позволяет значительно ускорить обработку данных в больших языковых моделях (LLM). Решение основано на использовании быстрых SSD вместо дорогостоящей памяти GPU (HBM) и, по заявлениям разработчиков, может ускорять некоторые процессы инференса в восемь раз.

Источник изображения: Pliops

Проблема в том, что современные ИИ-модели требуют всё больше оперативной памяти для работы с длинными контекстами. Когда данных становится слишком много, система вынуждена постоянно пересчитывать информацию, что замедляет работу и увеличивает нагрузку на GPU. Pliops предлагает хранить часть вычисленных данных на SSD и мгновенно подгружать их при необходимости, снижая, таким образом, задержки и экономя ресурсы.

Для этого используется устройство XDP LightningAI и программное обеспечение FusIOnX. Устройство подключается через PCIe и управляет передачей данных между GPU и SSD, а софт обеспечивает эффективное чтение и запись. Решение совместимо с популярными фреймворками, такими как vLLM и Nvidia Dynamo, и работает как с одиночными GPU, так и с масштабными серверными системами.

Главное преимущество технологии в возможности обрабатывать больше данных без увеличения числа GPU. Обычно для расширения памяти HBM приходится добавлять новые видеокарты, но их количество в одной системе ограничено. Pliops предлагает более дешёвую альтернативу с почти такой же скоростью, что позволяет снизить общую стоимость владения ИИ-инфраструктурой.

По словам представителей компании, их подход обеспечивает стабильную работу больших моделей даже при высокой нагрузке, что особенно важно для сервисов, где критичны скорость и масштабируемость, таких как чат-боты или системы автоматического перевода. В будущем подобные решения могут стать стандартом для энергоэффективных ИИ-систем.