`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

«Большие данные» можно эффективно обрабатывать с помощью обычных алгоритмов

+11
голос

Принято считать, что работа с «большими данными» требует особого подхода и создания принципиально новых алгоритмов — старым, как правило, требуется слишком много времени. Тем не менее, как показали ученые из Массачусетского технологического института (МТИ), хорошо известные алгоритмы можно эффективно использовать, просто для этого необходимо специальным образом подготовить крупные массивы данных, создав их краткие представления. Новый подход был представлен на прошедшем в начале этого месяца форуме Association for Computing Machinery’s International Conference on Advances in Geographic Information Systems.

Ученые использовали новую технику работы с «большими данными» к набору значений, генерируемому GPS приемниками. Как отметила руководитель Лаборатории компьютерных наук и искусственного интеллекта МТИ профессор Даниэла Рус (Daniela Rus), GPS определяет местоположение объекта каждый 10 с, таким образом, эти устройства ежедневно продуцируют гигабайты данных. Система обработки информации GPS с тысяч автомобилей, например для анализа схем движения, будет быстро выведена из строя. При этом для анализа направления движения автомобиля не нужно рассматривать точные его координаты на дороге, достаточно данных о точках поворотов, остальные участки пути можно аппроксимировать прямыми. Именно за счет этого и упрощаются расчеты — специальный алгоритм сжимает данные буквально «на лету», и окончательный набор данных содержит столько же информации о перемещении объектов, что и полный массив.

В определенном смысле эта задача аналогична проблемам, с которыми работает регрессионный анализ (нахождение функции, наилучшим образом приближающей заданный набор точек), основное отличие в том, что новый алгоритм ищет последовательность отрезков, наилучшим образом приближающих набор данных. Естественно, во время аппроксимации часть данных теряется, но алгоритм дает низкую погрешность, к тому же во многих случаях использование приближенной оценки оправдано значительным повышением эффективности.

Как отмечают ученые, такой подход можно использовать не только с GPS, но и другими данными.

Стратегія охолодження ЦОД для епохи AI

+11
голос

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT