blanko27 wrote:Да, Ninja машина грозная, но с точки зрения machine learning вопрос, конечно, интересный:
Intel Knights Landing work loads vs NVIDIA GeForceLike Brian said, the Xeon Phi cores are not at all comparable to the CUDA ones. The problem with the Phi is that it's somewhere between two horses.
If you are doing highly parallel floating point calculations, NVIDIA will provide you with something like 3 times the performance at 1/4th of the price. For double precision the gap is smaller, but NVIDIA still ends up being 20% cheaper for the same performance.
If your problem is very hard to parallelize, the Phi will not help you at all and instead something like an Intel Xeon will give you the best performance.
The sweet spot for the Phi is then something highly parallel, but divergent, i.e. each thread has to do something different. An example of this would be Monte Carlo simulations. They are for instance used in simulations of radiotherapy treatments, where GPUs only give a small (~2x) speed-up over a standard CPU.
Intel is also trying to sell the the Xeon Phi on the fact that you only need to rewrite your code minimally. However, for anything that is not trivial to parallelize, the work becomes the same as for a GPU
Это цитата из открытого форума вопросов и ответов, корректность eё отдельных выводов под большим вопросом. Например, теоретическая производительность (в TFLOPS) для Float в два раза выше чем для Double и для первой платформы и для другой. Не 6, как следовало бы из цитаты, а 2. Сравнение ядер неправомерно, это принципиально разные архитектуры, это верно, но сентенция о двух конях непонятна. Если задача не параллелизуется, то это делает бесполезными две платформы в равной степени, а не только одну. Работа по нетривиальной параллелизации требуется в любом случае, но для GPU это будет CUDA, а во втором случае - стандартная инфраструктура компиляторов, дебаггеров, профайлеров обычного C/C++. Поскольку обычные CPU давно уже многоядерные, то есть много библиотек, в том числе для machine learning, уже распараллеленных, и они будут идти на всех CPU, как обычных, так и массивно параллельных.
Впрочем, результаты реальных тестов от независимых (это архиважно!, а то мы знаем как производители могут пиарить свои продукты, особенно NVidia
![Very Happy :D](./images/smilies/biggrin.gif)
) пользователей могут быть разнообразными и весьма интересными. Ждём-с.