Ответы пользователя по тегу Железо
  • Куда лучше подключить второй монитор?

    Avis-HQ
    @Avis-HQ
    Engineering (subsea), CAD/CAM/CAE, design
    Есть отдельные конфигурации при которых в BIOS принципиально нет ни multi monitor, ни параметра always enable для интегрированной видео, а сама карта блокируется при подключении дискретной. Сделано это в т.ч. для однозначного приоритета видеодрайвера(!).
    И вот в момент, когда фокус переключается на другую карту происходит и переключение драйвера. 15432 всё верно говорит про ноутбуки - там эта проблема на поверхности, на некоторых моделях Win10 не может опознать текущий адаптер и включает оба драйвера и оба адаптера сразу. Результат: постоянное моргание картинки с наложением и артефактами.
    Как быстро и насколько это влияет на ход работы если функция поддерживается..? Придётся гонять конкретную конфигурацию лично.
    Сперва предлагаю потестировать какое-нибудь 3D приложение на обоих мониторах поочередно (читай: одно и то же приложение на разных адаптерах). Сравнить результаты (нагрузка, температура, FPS.. всё что сможете вытянуть).
    Далее стоит запустить мультисессию одного приложения на оба монитора сразу и тоже сравнить.
    Это будет объективный ответ на ваш вопрос. С фактическими цифрами.

    А вообще у меня всю жизнь два монитора (а иногда и три) подключались через один адаптер и всегда были завалены кучей всего. Даже помершая уже HD5770 легко тянула фильм на одном мониторе и игру на втором.
    Ответ написан
    Комментировать
  • Можно ли на стационарном компьютер настроить переключение видеокарт между собой?

    Avis-HQ
    @Avis-HQ
    Engineering (subsea), CAD/CAM/CAE, design
    Ну, ноутбучная переключаемая графика - комплекс аппаратно-программный, а не просто программный. PDF по строению N-vidia Optimus. Если кратко, то используется целый контроллер, который тянет информацию по нагрузке и управляет как процессом вывода на экран, так и схемой питания, не забывая общаться с драйвером в ОС, чтобы не бить процессы, уже работающие на выключаемой карте.. И тут зарыта собака, потому что если по старой схеме (ручного переключения, иногда даже с перезагрузкой) давно есть заплатки, позволяющие переключать драйвера, то тут одним драйвером на видеоадаптер не обойтись - нужна обратная связь с питанием, чего по-умолчанию в десктопных картах не дороешься - она там просто не нужны (доп.питание никаких сигнальных проводов не имеет: GND и 12V только), т.е. надо обходить через оба моста. На ноутбуке проблем никаких - там видеотракт распаян на плате, а вторая его половина вообще часть CPU - всё рядом, всё заодно, чего не скажешь про десктоп, у которого видеотракт стоит на PCI. Никогда не видел возможности управления отдельными ветками питания из коробки, но видел как парни делают такое через дополнительный контроллер (Arduino опять же..).

    Поэтому.. даже если по какому-то практически волшебному стечению обстоятельств, у вас окажется материнка, поддерживающая управлением схемы питания программно, то вам предстоит писать свой собственный драйвер для десктопной версии видеоадаптеров. =)

    Исходя из этого решения предлагаю чисто колхозные:
    1. Нагло воткнуть в цепь питания кулера 1060-й контроллер оборотов (150 р готовый или 30 рублей за переменный резистор). При желании можно завязать на термодатчик.
    2. То же самое, но программно. Уверен, что для 1060-й есть управление оборотами, в т.ч. каким-нибудь попсовым Afterburner, который можно научить повышать обороты по условиям.
    3. Скриптом врубать и отрубать в диспетчере устройств оборудование. Скрипта, очевидно, два - под обе ОС. Включили MAC - в автозапуск прописать запуск принудительного отключения, переключились на Win - то же самое. Но это идейно, конкретно надо рыть очень глубоко в ОС и варианты автоматизации. Под Win есть AutoIt, да и Powershell должен справиться. Но это жесткий вариант, конечно, потому что никаких предохранителей в от выхода до монитора нет. Вы довольно жестко будете отрубать видеотракт и включать другой. Учитывая, что производители видеокарт вообще не рекомендуют дергать выводы на монитор "на горячую", всё на свой страх и риск.
    Ответ написан
  • Ноут, количество мониторов х3 - х2 варианты?

    Avis-HQ
    @Avis-HQ
    Engineering (subsea), CAD/CAM/CAE, design
    Номер раз в разработке.
    Номер два там же.

    Ну и к ним любой подходящий по параметрам ноутбук соответствующего размера.

    Если ждать выпуска нет никаких сил, то DisplayLink уже делает USB-мониторы разных конфигураций, что решает вопросы о портах. Конечно, ожидать прыти в плане отклика от дополнительных, подключенных по USB и питающихся от него же (USB 3.0), не стоит, но картинка будет двигаться.
    Ответ написан
    Комментировать
  • Почему SolidWorks тормозит?

    Avis-HQ
    @Avis-HQ
    Engineering (subsea), CAD/CAM/CAE, design
    А что думает его родной диагностический софт? Проверку всё проходит по железу?

    Ну и есть там некоторая тонкость с драйверами на N-vidia, конечно. Надо искать сертифицированные, если они есть на эту карту, либо подбирать самый подходящий методом тыка.
    Ставил я как-то на Quadro K620 (i5 6400, 16Gb DDR4) бета-драйвер с официального сайта N-vidia и словил сумасшедшие фризы, неработоспособный RealView и всякие глюки. Залез в раздел сертифицированных дров, откатил на них (они всегда на несколько версий ниже) и всё нормально стало.
    Ответ написан
  • Как создать g code из 3d модели?

    Avis-HQ
    @Avis-HQ
    Engineering (subsea), CAD/CAM/CAE, design
    Для этой задачи есть CAM-системы. Это такой зверь в который загоняется 3D-модель, настраивается система координат и строится технологический процесс. С допусками на обработку,, оптимизацией траектории инструмента, корректировками, указанием смены инструмента и т.д.
    Но есть нюанс. Нюанс называется связка "станок+стойка", в рамках CAM имеющая вид конкретного препроцессора под конкретную стойку и типа станка - 4 оси бывают разные. Есть т.н. 3.5, которые тоже 4, да не очень. В частности поворотный стол на некоторых умеет крутиться только на 180, а не на 360, в итоге команда на поворот более 180 выдаст ошибку на железе, хотя симуляция отработала. Иными словами G-код для одной стойки может быть весьма непохож на код для другой стойки, особенно по части понятий стойки относительно положения осей. В своё время я плотно работал со SprutCAM, поскольку там были мои стойки и типы станков и модельки любой сложности корректно перелопачивались в код, который успешно отрабатывался стойкой.
    Но систем гораздо больше. Можете ознакомиться с рынком, обычно в доках есть модели стоек и станков.

    А вот по вопросу исходной модели.. ну CAD-файлы тот же Sprut ест любые. Кормил его sldprt, iges, step, m3d.. чем только не кормил, но насчет C4D ничего не скажу. "Не по феншую" оно точно, но экспорт в iges и stl там есть.

    Так же многие CAM-системы, вроде MasterCAM или SurfCAM любят (во всяком случае могут) работать с облаком точек и даже парочка плотно связана с Rhino. Соответственно перегнать что-то из C4D в нужный формат не проблема. Вопрос требований точности. Импорт-Экспортные операции им явно не на пользу. Именно поэтому расчётный софт по гребным винтам часто даёт набор координат по которой CAM уже сама строит поверхность. Так нет проблем с кривизной поверхностей, переброшенных 10 раз из формата в формат.
    Ответ написан
    3 комментария