Революционная архитектура NVIDIA Ada Lovelace™ в сочетании с новейшей платформой GeForce® RTX объединяет технологии трассировки лучей в реальном времени, искусственного интеллекта и программируемого шейдинга, чтобы позволить вам наслаждаться играми на совершенно ином уровне.
KennyM, Если крышку открыл и температура резко вниз бросилась, то тепло не выводится из корпуса, а уплотняется и нагревает среду внутри корпуса до высоких температур. Меняйте принцип охлаждения своей системы, циркулируйте воздух правильно или купите специализированный для этого дела корпус.
KennyM, Буду дома подкину корпус которым пользуюсь сам, а гайды предпочитаю обходить стороной, собирал охлаждение методом проб и ошибок с постоянным мониторингом температур пока не нашел оптимальный вариант. Хотя их и было всего пара штук, но все же. На выходных планирую почистить корпусню, от пыли, уже год почти не чистил, могу все зафоткать даже, для наглядности.
Температура в простое 19-22 зимой и ~27-30 летом. В играх при полной загрузке температуры не выше 65 на процессоре и порядка 55 на обоих ГП (которым кстати остужаться тяжелее т.к. стоят плотно друг к дружке выдувая пар друг на друга
Да в корпусе все по канону стоит. Спереди куллеры дуют на винчестеры и выдувают все вместе с тем что выдает куллер процессора. На стенке еще 2 куллера дуют сверху на видеокарту и проц и поток тоже через зад выдувает. Я в нем уже не знаю как химичить.
KennyM, Не совсем правильно понимаешь. В разгоне с 3.8 до 4.3. Если до 4.5 Гнать темп начинает подниматься до 30 в простое.
Добавлено (08.04.16, 09:51) --------------------------------------------- DimJones, Т.е. то, что я не написал что у меня GTX не позволяет мне сюда отписать о температуре GPU и за походом об охлаждении в целом, включая мой GPU? Тогда заявляю официально, у меня две GTX в сборке)))
Т.е. то, что я не написал что у меня GTX не позволяет мне сюда отписать о температуре GPU и за походом об охлаждении в целом, включая мой GPU? Тогда заявляю официально, у меня две GTX в сборке)))
Эта тема создана для отзывов Nvidia карт, совместного решения проблем, тестах и т.п, но никак не о корпусах и процессорах.
Дата: Воскресенье, 10.04.16, 08:05 | Сообщение # 3764
ЦитатаKennyM ()
Плохо. От этого чипы то и отваливаются.
Ну не от такой же температуры они отваливаются. Помню у кореша была 8800 GTX, т.ак она постоянно грелась до 90°С в легкую. Если не ошибаюсь, то она до сих пор живая.
Дата: Воскресенье, 10.04.16, 16:26 | Сообщение # 3766
DimJones,
А у моих 2 знакомых от перегрева все же отвалились 2 чипа. 8800GT и GTX470. И там перегрев был не особо серьезным кстати говоря. Опыт говорит мне, если видишь уже к 80 подбирается, то меняй термуху. Был правда печальный опыт с Fermi, где на чипе была крышка. Там меняй не меняй а все равно было около 80, а скальпировать не было смысла. В итоге продал по кризисной цене и остался более чем доволен.
theMaZaReX,
Так то оно так, но никто не застрахован от того, как сделана видеокарта на заводе. Для некоторых 90 может оказаться слишком много. Зачем рисковать, да и приятнее осознавать, что видеокарта показывает температуры новой видеокарты, а термопаста вроде не самое дорогое удовольствие. Процессоры вот на моей памяти никогда не горели, т.к защита срабатывает и синьку выдает, а вот видеокарты... Да и опять же частая проблема отвала, это отвал шаров внутри кристалла, а это значит что внутри температура выше, чем та что показывает датчик.
Дата: Воскресенье, 10.04.16, 17:02 | Сообщение # 3768
Xender,
Речь просто идет о самом чипе. И если Maxwell холодный, то у некоторых уже температура подваливает к 75 на одном из самых холодных референсов, а это уже странно. Это конечно норма, но просто создает вопрос, почему так.
Дата: Воскресенье, 10.04.16, 17:13 | Сообщение # 3769
KennyM, пыль и высохшая термопаста, ответили же уже К тому же это стресс-тест, у меня в играх выше 69 не нагревается. Как будет в играх 80, так полезу термопасту менять.
Если совсем горит и не дает спокойно спать - купи какой-нить арктик кул да поменяй.
Дата: Понедельник, 11.04.16, 22:33 | Сообщение # 3775
Может пригодится кому.
Для редактирования биос с помощью КВТ, МВТ и НЕХ редактора. Для начала берем оригинальную версию биоса, создаём копию (оригинал нам ещё пригодится) и приступаем к редактированию. 1) Актуально для gm200. Если ваш биос выглядит как на скриншоте: то необходимо открыть 2 и 3 строчки в таблице напряжений. Для этого открываем биос В КВТ и двигаем выделенные ползунки в произвольное положение: Получается примерно так: Теперь наш биос выглядит так в МВТ: Выставляем нужное нам напряжение буста во 2 и третьей строчке таким образом(моё напряжение для буста - 1.175в) Во второй строчке к правому значению прибавляем один шаг, в третьей ставим максимальное значение, до которого через АВ можно будет поднять. Запоминаем, на какой ячейке расположена частота 3d base clock: На позицию буста(у меня при 1.174в это 59 ячейка) ставим частоту, которая при этом напряжении стабильна(я ставлю на 20-30 мгц ниже, остальное добавляю в АВ) Далее открываем биос в НЕХ редакторе и ищем ячейку буста: к номеру ячейки прибавляем 12 (в моём случае 59+12=71) и переводим в hex (71d = 47h). Далее берем частоту на этой ячейке(1455.5 у меня), умножаем на 2(2911) и переводим так же в НЕХ(2911d = 0B5Fh). Ноль не теряем. Далее ищем в НЕХ коде биоса следующую шестнадцетиричную последовательность: 47 5F 0B 00 01 Где 47 - НЕХкод ячейки биоса, 5F 0B - удвоенная частота младшими разрядами вперед(0B_5F), 00 01 - код команд. Влево(с 46 позиции) идут ячейки с 58 до 1 группами по 5. Берем значение частоты, которое у нас будет между базовой и частотой буста(я выбрал 1405), переводим в знакомый формат (1405 * 2 = 2810d= 0AFAh) и вставляем их с ячейки перед бустовой(58у меня) по ту, на которой стояла базовая частота + 1 (43+1=44) и меняем их на нужное нам значение (FA 0A) После редактирования таблицы частот соотносим значения в таблице напряжений, сохраняем биос и прошиваем. Можно писать любые частоты, выбирать любой шаг, но твикер может перечеркивать частоты, которые в него не забиты. Ничего страшного, это софтовая недоработка, КВТ так же показывает биос от максвелла. В дальнейшем добавлю инструкцию по изменению шагов напряжения и самих напряжений буста. Пример: [media]https://www.youtube.com/watch?v=ajNiL6i9hYY[/media]
Я думал GTX X70 будет на кадров 5-7 быстрее GTX 980.
Почему ты так думал? 970 ведь на уровне топа прошлой серии 780ti. Вот тут так же, и так же x70 должна быть в два или почти два раза дешевле 980ti. Было б как раз странно, если б случилось иначе.
Но ведь изначально GTX 970 не была на уровне GTX 780 Ti, разве что кое-где. Это потом они сравнялись. Отсюда и мысли такие. Но я буду только рад, если все будет так, как ты говоришь. Кстати, как думаете, сколько будет стоить в рублях GTX X70 и GTX X80?