Ну в общем всё вполне логично. Как таже CUDA даёт больше свободы и удобства при работе с GPU от nvidia, так и Intel Ct выжимает всё от нативной платформы.
Скажите, а как эта разработка впоследствии будет или уже связана с Intel Paralle Studio?
Господа, это я к тому, что люди, которые что-то мерят всегда (крутизну например:) ), по мнению Фрейда, реализуют глубинный комплекс зародившийся на основе неудовлетворённости размерами некоторых частей тела. Юмор такой. А может и не юмор…
Если говорить про обычных пользователей, то сейчас вычисления на GPU постепенно включаются по многие разработки: работа с видео/аудио, кодирование данных, работа с графикой (Abode CS5 например).
Сейчас часть функционала СУБД переносят на GPU. Недавно читал про перенос части SQLite на GPU с помощью CUDA. Прирост 70х не на самых топовых карточках.
Ну про разные HPC я и не говорю. Кластеры, рендеринг-фермы, научные задачи. Это всё очень большие деньги и здесь nVidia преуспела очень серьёзно.
Минусующим я бы хотел сказать, что работаю каждый день с параллельными вычислениями на GPU. Пробовал ATI Stream, CUDA, OpenCL, DirectCompute. C уверенностью скажу, что CUDA на порядок более зрелая технология.
CUDA и nVidia сделали вычислений на GPU доступными. ATI здесь просто в полной жопе. И OpenCL в зачаточном состоянии. Nvidia здесь далеко впереди. И Nvidia fermi с точки зрения вычислений — большой шаг вперёд. А рынок здесь тоже дай бог.
Существенно улучшена поддержка вычислений с двойной точностью. Прирост до 8 раз относительно поколения 1.3 (GT200). Полное соответстве IEEE-754
Расширены максимальные значения количества потоков в блоке. Увеличено количество shared memory на один мультипроцессор в два раза. Улучшены алгоритмы кеширования данных, branch prediction. Увеличена производительность простуйших атомарных операций.
Добавлена ECC. Но эта фишка я так понял для более надёжного хранения данных.
В общем для вычислений с использованием CUDA прирост будет очень существенный.
Вы думаете на карточках код исполняется? Просто вышел новый Toolkit 3.0 в нём добавлена поддержка нескольких фич из С++, но они и под другие поколения будут компилится нормально.
Речь не только об этом, но и о собственных колебаниях сейсмоприёмников, и о поверхностных релеевских волнах, ну и т.д. Их невозможно разделить на этапе записи, следовательно писаться они будут и с высокой точностью/чувствительностью.
Да проблема в том, что вместе с 1000 кратной точностью они будут фиксировать и помехи тоже. Т.е. получим более интенсивный сигнал — больше накопим, статистика поможет обработать. Поэтому всё равно всё упирается в грамотный processing.
Скажите, а как эта разработка впоследствии будет или уже связана с Intel Paralle Studio?
Сейчас часть функционала СУБД переносят на GPU. Недавно читал про перенос части SQLite на GPU с помощью CUDA. Прирост 70х не на самых топовых карточках.
Ну про разные HPC я и не говорю. Кластеры, рендеринг-фермы, научные задачи. Это всё очень большие деньги и здесь nVidia преуспела очень серьёзно.
Если есть какие-то аргументы пишите их.
Расширены максимальные значения количества потоков в блоке. Увеличено количество shared memory на один мультипроцессор в два раза. Улучшены алгоритмы кеширования данных, branch prediction. Увеличена производительность простуйших атомарных операций.
Добавлена ECC. Но эта фишка я так понял для более надёжного хранения данных.
В общем для вычислений с использованием CUDA прирост будет очень существенный.
А текущие на сколько расчитаны?
В России идея о свободном ПО изначально вложена в умы людей. :)