Революционная архитектура NVIDIA Ada Lovelace™ в сочетании с новейшей платформой GeForce® RTX объединяет технологии трассировки лучей в реальном времени, искусственного интеллекта и программируемого шейдинга, чтобы позволить вам наслаждаться играми на совершенно ином уровне.
Дата: Понедельник, 05.01.15, 22:17 | Сообщение # 1436
Цитатаilya-231 ()
Проблемы со SLI я тоже давно наблюдаю, но что то в последнее время их становится все меньше и меньше.
Да, в последнее время их все меньше и меньше, но прикинь, когда я покупал ATi Radeon HD 2600XT уже тогда был CrossFire (хотя он был и раньше). Мне кажется, что в то время он был только как фишка, да и не встречал я в то время никого с 2 картами. Не а форумах, не в жизни.
когда я покупал ATi Radeon HD 2600XT уже тогда был CrossFire
Технологию совместной работы видеокарт придумала 3dfx в еще 1998 году, называлась эта технология SLI, только расшифровывалась по другому. Потом nvidia купила 3dfx вместе с этой технологией. Nvidia стала использовать эту технологию в 2004 году в geforce шестой серии. AMD CrossFire появился в 2006 году. Но людей с двумя видеокартами я тоже тогда не встречал, а в 1998 тем более
Технологию совместной работы видеокарт придумала 3dfx в еще 1998 году, называлась эта технология SLI, только расшифровывалась по другому. Потом nvidia купила 3dfx вместе с этой технологией. Nvidia стала использовать эту технологию в 2004 году в geforce шестой серии. AMD CrossFire появился в 2006 году.
DimJones, технология старая, а до ума довести не могут и по сей день. они как что не анонсируют, так все "круто круто" а на деле забивают и не доделывают как следует. я вот в 3D щас прошел кучу игр которые хотел и походу новые ждать уже не буду. ну не идеальна технология, дико прикольные ощущения, море позитивных эмоций, но пока с каждой игрой час настраивать будешь - запаришься. не за это я платил. так что монитор щас буду продавать (даже на 20 евро дороже чем взял ) и деньги походу уйдут на.... ура! на погашение всех долгов! хотя хотелось планшет. но слишком много надо погасить, за 2 месяца больше 1000 евро, целую зарплату пожертвовать придется так что даже не жалею что вернусь пока на старый монитор. в марте будет отпускные, возьму все равно 27", но уже попробую IPS простой, тупо из-за дизайна офигенски нравится один AOC безрамочный, дико тащусь
так вот я к тому, что эти технологии такая туфта, что они вроде бы и работают и все такое... но за такие деньги которых стоит нормальный сли комплект или там 3D они должны работать по одному клику. платить деньги за геморрой это перебор мать его.
технология старая, а до ума довести не могут и по сей день.
Вот и я о чем.
Цитатаzeraf ()
вот в 3D щас прошел кучу игр
В 3D я попробовал только одну игру - это Resident Evil 5. С 3D Vision, все дела, но глаза быстро уставали и картинка была другой, не такая, какую я ожидал.
tx 960 - ох лол, походу я не зря себе gtx 970 заказал
Посмотрим, посмотрим, как GTX 960 себя покажет. По слухам будет 3 версии: GTX 960, GTX 960 Ti и GTX 960 Boost. Последняя, вроде как будет дышать в спину GTX 780.
Посмотрим, посмотрим, как GTX 960 себя покажет. По слухам будет 3 версии: GTX 960, GTX 960 Ti и GTX 960 Boost. Последняя, вроде как будет дышать в спину GTX 780.
Ага, и скорей всего с ценой почти как у 970 (у нас точно). Ой погорят они с этой идеей с 3 версиями.
HardboiledDet, я тоже не поддерживаю эту идею. Если GTX 970 дышит в спину, а где-то обгоняет GTX 780 Ti, то GTX 960 нужно было делать на уровне GTX 770, а GTX 960 Ti равную GTX 780.
я тоже не поддерживаю эту идею. Если GTX 970 дышит в спину, а где-то обгоняет GTX 780 Ti, то GTX 960 нужно было делать на уровне GTX 770, а GTX 960 Ti равную GTX 780.
Может оно так и будет, в тех слухах же были карты 9** потом 9** ti(1280куда ядер) и 9** ti(1560куда ядер), следовательно 9**- это gtx 950=gtx 760, 9** ti(1280куда ядер) - только что показанная gtx 960= gtx 770, а 9** ti(1560куда ядер на другом ядре) - это gtx 960 ti=gtx 780, ну а gtx 970=780ti. Как то так, мое ИМХО.
Давно минули те времена, когда видеокарты позволяли владельцу самостоятельно увеличивать объём памяти. Не осилил нужные показатели при покупке - не беда, подкопил денег, получай россыпь микросхем и устанавливай их на плату голыми руками! В томительном ожидании действительно новых графических решений производители видеокарт готовы на различные эксперименты, одним из распространённых способов привлечь внимание покупателей является увеличение объёма памяти.
Коллеги с сайта VR-Zone удосужились пояснить, почему в случае с GeForce GTX 970 и GeForce GTX 980 дело не дошло до выпуска вариантов с 8 ГБ памяти типа GDDR5. Как они выяснили, производители памяти до сих пор не предлагали подходящих микросхем, которые могли бы и работать на частотах около 7 ГГц QDR, и набирать желанный объём минимальным количеством микросхем. В частности, компания Samsung соответствующие микросхемы типа GDDR5 начнёт поставлять в виде образцов только в текущем квартале:
В данном случае для GeForce GTX 980 и GeForce GTX 970 могли бы пригодиться микросхемы с компоновкой 256Mx32, которые позволяют набрать 8 ГБ из восьми микросхем, способных работать на частотах 7-8 ГГц QDR. Впрочем, наличие таких микросхем в производственной программе Samsung ещё не означает, что они найдут применение именно на видеокартах существующего поколения.
Ну насколько мне известно, только Samsung и Hynix занимается такими микросхемами памяти. И они являются поставщиками как для Radeon так и Geforce. То есть радеоны уже готовы к выпуску такого объема памяти, а Nvidia что-то темнит.
ИзяTOP, достаточно заиметь оптимизацию под АМД (Ryse\Battlefield\Dead Rising 3) и новое поколение nvidia будет сливать старому amd Я лично надесь, что таких вот оптимизаций под АМД будет все меньше Мне они совсем не сдались
Пока Nvidia деньги гребет лопатой подбирает под себя рынок, AMD портфель директорский делит вместо того чтобы выпускать новые видеокарты. А потом жалуются о каких-то низких продажах.
этот ГЕЙгпу.. Ты видел их последние тесты? Это же ужас! Почти во всех играх GTX 970 на уровне r9 290, а иногда еще и сливает ей (и это в 1080p). При том, что раньше - все было наоборот. И 970 обходила 290x. Да что там, в этой ахинее, 780Ti, которая была флагманом больше года, сейчас стоит ниже 280x по минимальному фпс Я дико пригорел от этой статьи, а потом вспомнил тесты Картаво-Кухни: Один из первых тестов 970 карты (970 везде наравне или сливает 290). Один из последних тестов 970 карты (970 почти везде превосходит 290x). Разница между тестами - меньше месяца (это максимум 1 новая версия дров). В обоих случаях карты в разгоне (в первом видео он в комментах написал об этом). Спрашивается - кто врет?
ultrabombeybox, то, что геймгпу сотрудничает с AMD - факт, отсюда и наваливают пару, тройку FPS их картам. Техно-Кухня в последнее время мне нравится и их тесты показали, что GTX 970 в большинстве случаев уделывает R9 290X и с этим мнением я согласен. Да, в 4K R9 290X лучше, но лично я клал я 4K в принципе. Через определенный период выходят драйверы от NVIDIA, и с каждой версией они стараются выжать максимум из GTX 970 / 980, поэтому не удивительно, что карты становятся быстрее. GTX 7**, я уверен, не урезают по производительности, а просто, как я уже написал, выжимают все соки из 9 серии. А вообще про якобы урезание производительности, придумали фанаты красных и стараются везде подстегнуть NVIDIA в этом. У моего знакомого есть GTX 780 и он специально сравнивал производительность с старыми и новыми драйверами. В итоге все осталось на прежнем уровне, хотя 1-2 FPS разница бывает, но это скорее погрешность. И еще пару слов о GTX 780 Ti и GTX 970. Некоторые думают, что NVIDIA урезает производительность GTX 780 Ti, но это не так. GTX 970 бывает впереди, но не на много. А почему? Из-за более высоких частот. В Watch Dogs 4 GB VRAM, поэтому здесь тоже GTX 970 впереди. Вот такое мое мнение.
P.S А кто врет? Хм... Я верю Костику с кухни. Да даже самые первые тесты, от громких изданий показывали, что если GTX 970 и обходит R9 290X, то на незначительный FPS. А где-то идет вровень. Да взять хотя бы это:
mfaa для максвелла во многих играх, по моим подсчетам, дало прирост при 2xmsaa в среднем 10 фпс, что не может не радовать. Ежели вырубить mfaa, то фпс увеличится на 2-3 в среднем при 2xmsaa. А это еще далеко не последние нововведения. В общем радик в попе, пока новую линейку не выпустит
mfaa для максвелла во многих играх, по моим подсчетам, дало прирост при 2xmsaa в среднем 10 фпс
Я в Far Cry 3 проверял, до 15 FPS. Жаль, что этого режима сглаживания нет в самих играх, а не в драйвере. А то я бывает забываю, что MFAA вообще существует.
Asus и Acer уже анонсировали первые IPS\AMVA 120HZ мониторы (все с G-sync ествественно). Вот это будет вещь Да здравствует качественная цветопередача и превосходная скорость работы матрицы. Если они еще и стоить будут адекватно - можем сказать пока-пока днище-TN панелям
Что дальше? Современные качественные Асусы(именно асусы, так как они еще неплохо дерут за бренд) IPS\AMVA FullHD 60hz стоят 350-400$ А тут: WQHD\IPS\120hz\G-sync - 600$ (на старте). Думаешь, как для асуса, дорого? Так за ними и другие производители подхватят технологию. Очень скоро TN, 60hz и FullHD - уйдут в прошлое
Ты меня так не огорчай, я только этим летом себе новый монитор взял
Тоже только летом себе прикупил на AMVA, 5 лет сидеть не собираюсь, а вот уже к следующей смене видеокарты (я думаю через серию) когда они уже точно будут способны выдавать до сотки фпс в WQHD (сейчас то 60тку могут, если со сглаживанием не баловаться). То так и сменю уже на 120герц, всегда такой хотел, да днище-ТН меня постоянно останавливал.
ИзяTOP, BENQ EW2740L. Долго выбирал, на момент покупки, этот и еще конкурент от асуса ASUS VN279QLB, были лучшими кандидатами. Прикол в том, что у модели АСУС использовалась точно такая же матрица(даже серийники совпадали), то есть мониторы разнились только внешним дизайном и дизайном менюшки, однако этот у меня стоил 350$(а по США он дешевле), а асус 430$ Разница между TN - цветопередача. ТН никогда не мог и не сможет продемонстрировать правильный оттенок цвета (постоянно тусклые цвета) Я лучше вернусь на старый ЭЛТ монитор(который кстати лучше TN) чем опять возьму это недоразумение. На момент написания поста, преимущества TN: отклик 1мс, 120\144hz, один из видов 3d, G-sync (заметь, цену, как плюс, я не пишу, потому как монитор со всеми этими плюхами будет стоить значительно дороже любого хорошего ips\amva. А так, минусы TN - цвет\углы обзора (у AMVA с углами тоже ситуация не особо, лучше TN, но не дотягивает до IPS). Я специально хотел попробовать AMVA, т.к. опыт со старыми ips'ами и их "серым черным" у меня уже был. преимущества AMVA над IPS - правильный черный цвет (у ips с этим проблема). Остальные цвета - идентичны ips'у. Преимущества ips над amva - шикарные углы обзора (у amva с этим проблема). А так, я не буду писать про всякое там отсутствие мерцания, неравномерности подсветки, еще какие фишки- так как это все есть у всех современных мониторах.
Для меня матрица AMVA лучше чем IPS, для игр цветопередача куда важнее, а она на этих мониторах просто оболденная. Да и там действительно черный цвет а не серая подсветка IPS матриц, которая после сильного прогревания скатывается в белесую пелену, особенно в темное время суток.