Суть вопроса, профессиональные видеокарты Nvidia Quadro и Ati FirePro. Пользовался кто при работе с большим массивом элементов или с использованием BIM-технологий AutoDesk?
Для понимания, я хочу более комфортной работы. Сейчас у меня стационарник 2хRadeon6890 через кросфаер, 16 гб оперативки, ССД на 6 Gb/s. В принципе особо жаловаться не на что, но иногда бывают фризы на секунд 20-30. Когда большой объем примитивов, например "взорваная" геоподоснова на гектар 10, то фризит жутко. Я думал, может профессиональные видеокарты помогут. Что за профессиональный ССД?
Я поэтому и грешу на видеокарту, т.к. по диспетчеру задач проц не более половины загрузки, диск 2-8%, оперативки обычно не больше 8-10 гб забито, то есть 6-8 еще есть свободных. Может не все потоки/ядра процессора использует автокад?
Unkar, Может я неправ но сдается мне что мощь видеокарты в "взорваная" геоподоснова на гектар 10" не используется совсем, они вроде для обработки 3д заточены, причем автокад должен понять что он использует ее а не через виндовс. Схожая тема http://forum.dwg.ru/showthread.php?t=54082 ps. если выясните из за чего фризы сюда напишите буду тоже комп апгрейтить а то бывает еле ворочает чертеж из мелких отрезков а их там всего полмилиона :)
Схожая тема закрылась в 11 году без видимых решений. Но чисто логически рассуждая, там была сказана дельная мысль, не столь важна ширина шины видеокарты, сколько размер ее буфера.
Вроде бы указанные карты специально затачиваются производителем под Autocad. Но есть мнение что "Сколько поле не "квантуй", всё равно получишь ... " и всё дело не в железе, а в устаревшем ядре самого Autocad. Посмотрите как крутят игровые движки миллионы полигонов и огромные карты, при этом ещё и просчитывая свет, шейдеры и т.п. Да, трёхмерные модели будут шустрее на специализированной видеокарте, но вот со съёмкой сомневаюсь. Плюс все "красивости" добавляемые в софт с каждым выпуском свою лепту вносят. Запущенная программа с открытым 10 мб файлом ест под 2 Гб оперативной памяти. Помнится в 2006 году, на 2005 Autocad + GeoniCS чертил около 100 га пятисотки и 200 га двухтысячника не застроенной территории, периодически поглядывая на 1.5 Гб космоснимок. И ничего, на ноутбуке с 1 Гб памяти двигалось без перерывов на чай.
Я сегодня тестировал на ноуте и на станции. Во время фризов грузится одно из ядер/потоков до 100%, соответственно ЦПУ на >25%. Я так понимаю, что похоже проблема скорее в том, что автокад использует только одно ядро. И из соседней темы, возможно на ноуте лепту вносит аппаратное ускорение через встроенный в ЦПУ контроллер Intel HD Grafic.
Видео карты не вносят существенных преимуществ в скорость работы автокада. Это просходит потому, что основная нагрузка ложиться на ЦПУ, а не на ГПУ, причем автокад использует ТОЛЬКО одно ядро, т.е. фактически 1/4 мощи большинства современных процессоров (ЦПУ). Что касается видеокарт Quadro, то они никаких преимуществ не дают перед обычными картами nVidia вообще, это просто маркетинговый ход, рассчитанный на нишу инженеров, работающих с "тяжелыми" графическими программами и не вдающихся в подробности "железной" реализации карт. В наше время синонимом казалось бы научного и "умного" термина "маркетинг" становится простое русское слово "обман". Я одно время работал в техподдержке фирмы, продающей "продукты" Autodesk. Мой коллега выяснил вопрос о преимуществах Quadro в nVidia: они утверждают, что Quadro гарантирует точность математических вычислений, если ГПУ используется не для ускорения графики, а для параллельных вычислений. Речь идет об использовании мощи ГПУ не в графических, а в расчетных приложениях, позволяющих использовать многопоточность. Если рассматривать именно графическую производительность карт, то следует обращать внимание на такие характеристики "железа", как тип ядра, ширина шины данных, частота ядра и частота памяти. Примечательно, что по всем этим параметрам игровые видеокарты обходят карты Quardo не смотря на то, что последние стоят дороже. Вывод я уже сделал выше.