турбины воют. если память греет, наверно проще радиаторы к ней клеить...они же турбины делается еще прикольнее
турбины воют. если память греет, наверно проще радиаторы к ней клеить...они же турбины делается еще прикольнее
c ddr6 наклеивание радиаторов не проканывает, у них тепловыделение сильно большое, идеально получается турбина и радиатор сзади. а так память даже на крутых СО легко улетает 80С и больше, ясно понятно что это быстро даст деградацию на чипы, кто бы что там не пел. да я б не сказал что турбина особо воет, но это дело индивидуальное. кому и работающий ракетный движек под ухом будет в кайф, а для кого-то и кошка громко топает.QR_BBPOST если память греет, наверно проще радиаторы к ней клеить
Если freesync, то надо радеон брать, чтобы оно работало. Но не уверен, что с SE заработает - специально поддержкой freesync не озадачивался.QR_BBPOST Взял новый монитор FHD и поддерживает freesync. RX580 8Гб, как себя ведет с новой версией spaceengine?
А я повесил 360 мм водянку на RTX2080 (необслуживаемую от проца, через адаптер Kraken G12). Температура под полной нагрузкой упала с 85° до 55°, никакого троттлинга, шума почти не слышно. Вот это называется кардинальное решение вопросаQR_BBPOST я кардинально решил вопрос охлаждения видео. Отломал стандартный вентилятор, прицепил стандартный 50мм карлсон.
Думаю, можно и 90мм пристроить для горячих видях.
Почему же? NVIDIA сейчас тоже поддерживает технологию, у них называется G-SYNC.Если freesync, то надо радеон брать, чтобы оно работало.
Все работает.Но не уверен, что с SE заработает - специально поддержкой freesync не озадачивался.
Потому что под G-sync надо другой монитор покупать. Там либо то, либо то, я не видел мониторов, которые совместимы с обоими технологиями.QR_BBPOST Почему же? NVIDIA сейчас тоже поддерживает технологию, у них называется G-SYNC.
VRM до 60°, над ними кулер свой стоит, который регулируется в соответствии с нагрузкой на GPU (по-хорошему надо бы сделать в соответствии с температурой VRM, но NZXT CAM так не умеет, а свой софт монстрячить лень).QR_BBPOST SpaceEngineer, ну ладно ГП удалось водой охладить, а как дела с памятью и VRM обстоят? как правило ГП охладить просто, остальное перегретое оказывается. у меня так было, ставил асселеру на видюху, ГП остыл очень круто, зато остальное нагревалось круто.
Одно могу сказать, у меня монитор ASUS MG278Q с наклейкой на подставке AMD FREESYNC technology и карта NVIDIA GeForce GTX 1060 6GB, G-SYNC работает. Единственное, работает оно при подключении через DisplayPort. Сначала после покупки нынешнего системного блока я об этом нюансе не знал, и при подключении через HDMI была доступна только фиксированная частота развертки 60 Гц.Потому что под G-sync надо другой монитор покупать. Там либо то, либо то, я не видел мониторов, которые совместимы с обоими технологиями.
90 память держит и при этом быстро деградирует, да любые компоненты быстро деградируют под темперами. пирометром замер даст на 20-25 градусов ниже реальной. внутренняя температура как правило на 20-25 выше внешней. через текстолит и пайку тепло уходит, бекплейт бесполезен. реально эффективный способ это обложить термухами с обратной стороны текстолит и присобачить радиатор вместо бекплейта. тепло будет обильно улетать на радиатор. я так сделал и сразу карта забыла как надо температурить. ВРМ так же потеряет темпу если термух накидать и тепло на радиатор. если что на али радиаторы есть размер 200х100х18мм, но этот размер для референсов идеально подходит, для вендорских понадобиться возможно и другое, в зависимости от размера текстолита.QR_BBPOST Память - не знаю как, в ней нет датчика температуры, но через плату и бэкплейт тепло должно уходить. Память запросто 90° выдерживает. Не думаю, что она так греется. Хочу купить пирометр и замерить реальную температуру.
Ох вряд ли.У меня пк такой: видеокарта: Geforce GT630 (1gb), процессор: Amd Athlon II x4 651 (4 CPU) 3.0 gHz, 4гб Оперативки.
Вопрос: я смогу нормально поиграть хотя бы на минималках?
На главной странице сайта, либо на странице приложения в магазине Стима.А где посмотреть параметры, а именно минимальные требования игры*?