Перейти в начало страницы

Здравствуйте, гость ( Авторизация | Регистрация )

Gameru.net останавливает работу в связи с вторжением армии РФ в Украину. Следите за дальнейшими анонсами.
Support Gameru!
> Новости из мира железа
Коннор
сообщение 27.08.2021, 09:30
Сообщение #1361




Репутация:   0  
Группа: Припаркованный аккаунт
Сообщений: 0
Регистрация: 18.03.2007




Вставить ник Цитировать выделенное в форуму быстрого ответа


Убедительная просьба новости обсуждать в соответствующей теме
Перейти в начало страницы
 
80 страниц V  « < 67 68 69 70 71 > »   
Начать новую тему
Ответов
Коннор
сообщение 26.12.2014, 00:17
Сообщение #1362




Репутация:   0  
Группа: Припаркованный аккаунт
Сообщений: 0
Регистрация: 18.03.2007




Вставить ник Цитировать выделенное в форуму быстрого ответа


Выпуск GPU AMD и nVidia на базе более тонких техпроцессов откладывается

Компании AMD и nVidia вынуждены пересмотреть сроки выпуска графических процессоров на базе более тонких технологических процессов. Так, AMD откладывает сроки внедрения 20-нанометрового технологического процесса, а компания nVidia – 16-нанометрового техпроцесса. Причины пересмотра планов кроются не в технологических проблемах, а вызваны недостатком производственных мощностей. Все необходимые производственные ресурсы заняты производителями мобильных чипов. Среди них упоминаются Apple и Qualcomm.

Из-за нехватки производственных мощностей nVidia вынуждена была выпускать графический процессор GM204 (применяется в видеокартах GeForce GTX 980 и GeForce GTX 970 ), используя 28-нанометровых технологический процесс, а не 20-нанометровый, как планировалось изначально. Кроме того, nVidia решила вовсе пропустить 20-нанометровыйтехпроцесс и перейти сразу на выпуск GPU по нормам 16-нанометрового техпроцесса. Исходя из сложившейся ситуации, не следует ожидать появления 16-нанометровых графических процессоров ранее 2016 года. nVidia планирует представить мобильную систему-на-чипе Tegra, основанную на 16-наномтеровом техпроцессе, лишь в конце 2015 года. Перевод GPU семейства Maxwell на 16-нанометровый техпроцесс отменен, а первыми графическими чипами, выпущенными по этому техпроцессу, станут чипы следующего поколения – Pascal. Они должны появиться на рынке в 2016 году.

Аналогичным образом были пересмотрены производственные планы AMD. Ранее планировалось выпустить новые видеокарты серии R9 300 на базе 20-нанометровых графических процессоров, примерно, в феврале-марте 2015 года. Теперь же ожидается, что они появятся на два месяца позже – в апреле-мае следующего года. Однако это не значит, что до того времени компания AMD откажется от выпуска новых продуктов. Но эти новинки будут производиться по нормам существующего 28-нанометрового технологического процесса. Как ожидается, на рынок поступит улучшенная версия чипа Hawaii, а также полностью разблокированная версия GPU Tonga. Затем будут представлены видеокарты нового поколения серии R9 300. Причем, согласно имеющейся информации, грядущая графическая архитектура получит название Caribbean Islands, а не планировавшееся ранее название Pirate Islands. Однако официального подтверждения этой информации пока нет.
Перейти в начало страницы
 
Коннор
сообщение 01.01.2015, 15:27
Сообщение #1363




Репутация:   0  
Группа: Припаркованный аккаунт
Сообщений: 0
Регистрация: 18.03.2007




Вставить ник Цитировать выделенное в форуму быстрого ответа


В продажу поступил первый монитор с поддержкой AMD FreeSync

В продажу поступил первый компьютерный монитор, поддерживающий технологию AMD FreeSync. Причем, устройство оказалось существенно дешевле аналогичных устройств, поддерживающих технологию nVidia G-Sync.

Напомним, технология AMD FreeSync позволяет динамически синхронизировать частоту монитора с частотой кадров, которую обеспечивают видеокарты AMD Radeon и APU AMD. Благодаря этому удастся устранить появление задержек и артефактов изображения, возникающих из-за различных частот. Причем, технология AMD FreeSync является открытой, в отличии от решения nVidia G-Sync.

Монитор Iiyama ProLite B2888UHSU-B1 имеет диагональ экрана 28 дюймов и поддерживает 4K разрешение 3840x2160 точек (соотношение сторон 16:9). Устройство основано на матрице TN. Максимальная яркость изображения составляет 300 кд/м2, максимальная статическая контрастность – 1000:1, максимальная динамическая контрастность – 10000000:1. Время отклика матрицы заявлено на уровне 1 мс. Для подключения источников сигнала доступны два порта HDMI, два разъема DisplayPort, один порт DVI и один аналоговый интерфейс. Дополнительно в устройстве доступны динамики и USB-хаб.

Цена монитора 28-дюймового 4К-монитора Iiyama ProLite B2888UHSU-B1 составляет в Великобритании £390 (примерно $600). Это существенно меньше стоимости схожего по характеристикам монитора Acer Predator 4k2k XB280HK с поддержкой технологии nVidia G-Sync, который продается по цене £500 (примерно $770).
Перейти в начало страницы
 
HikeR
сообщение 01.01.2015, 16:20
Сообщение #1364


Магистр Игры
****************

Репутация:   270  
Группа: Участник
Сообщений: 2620
Награды: 4
Регистрация: 26.03.2007




Вставить ник Цитировать выделенное в форуму быстрого ответа


модель B2888UHSU-B1 продается чуть ли не с весны (первая попавшаяся новость). поддержка FreeSync заявлена в виде "будущего обновления прошивки", как именно это обновление будет происходить и когда именно — такие мелочи компания опускает.

скорее всего, как это обычно происходит в цивилизованном мире, отправкой монитора в авторизованный СЦ. так что расходимся.

Сообщение отредактировал HikeR - 01.01.2015, 16:22
Перейти в начало страницы
 
Коннор
сообщение 03.01.2015, 19:05
Сообщение #1365




Репутация:   0  
Группа: Припаркованный аккаунт
Сообщений: 0
Регистрация: 18.03.2007




Вставить ник Цитировать выделенное в форуму быстрого ответа


Слухи: nVidia GeForce GTX 960 будет выпущен в трёх модификациях?

Наступил новый, 2015 год, а видеоадаптер nVidia GeForce GTX 960 так и не был официально анонсирован. Более того, последние слухи о нём не слишком обнадёживают, если вспомнить версию о 128-битной шине памяти. Но самая новая информация выглядит достаточно оптимистично: похоже, речь идёт не об одной карте и даже не о двух, а сразу о трёх: о, собственно, GeForce GTX 960 и двух версиях GeForce GTX 960 Ti. Более того, обнаружились и предварительные данные о производительности всех трёх вариантов.

Нельзя сказать, что они впечатляют в случае базовой модели: она лишь чуть-чуть опережает GeForce GTX 760 и сильно проигрывает GeForce GTX 770; похоже, что слухи о 128-битной шине памяти всё-таки стали реальностью. Ничем иным такой разгром объяснить нельзя, даже использованием иного графического чипа. К сожалению, точной информации о конфигурации базового варианта по-прежнему нет, зато есть данные о количестве поточных процессоров у «титановых» версий — их будет 1280 и 1536 соответственно. И вот эти-то модели GeForce GTX 960 Ti как раз показывают себя весьма неплохо: даже менее мощный вариант оставляет позади предыдущее поколение в лице GeForce GTX 770, а старший небезуспешно замахивается аж на GeForce GTX 780 и уступает лишь Radeon R9 290 с его 512-битной шиной памяти.

Во всяком случае, теперь очевидно, что образцы, замеченные ранее в базе данных Zauba, представляли собой GeForce GTX 960 Ti. Похоже что в обеих версиях будет установлено по 4 гигабайта видеопамяти GDDR5 с 256-битной шиной доступа, но даже если младший вариант получит 192-битную шину, это сделает его лишь ненамного хуже. А привлекательность всего семейства будет сильно зависеть от цен. Если производительность базового варианта GeForce GTX 960 действительно будет столь низка, то даже двухсотдолларовая планка выглядит высоковато. $250 за «серединный» вариант GeForce GTX 960 Ti смотрится более-менее привлекательно, а вот для старшего варианта зарубежные источники предсказывают диапазон $280 — $320. На фоне официальных цен на GeForce GTX 970 (от $329) данное предложение будет выглядеть крайне тускло. Напоминаем, анонс и начало поставок новых карт nVidia GeForce запланированы на 22 января этого года, так что ждать осталось всего три недели.
Перейти в начало страницы
 
D00mbringer
сообщение 03.01.2015, 19:14
Сообщение #1366


Архимагистр Игры
*****************

Репутация:   118  
Группа: Участник
Сообщений: 2755
Награды: 3
Регистрация: 18.09.2013




Вставить ник Цитировать выделенное в форуму быстрого ответа


Цитата
чуть-чуть опережает GeForce GTX 760

Логика Нвидии - выпустить 3 поколения карт с разницой 10-20% z_haha.gif Ждём R390, может новый техпроцесс таки покажет какая должна быть разница между поколениями...


--------------------
Перейти в начало страницы
 
Коннор
сообщение 03.01.2015, 19:23
Сообщение #1367




Репутация:   0  
Группа: Припаркованный аккаунт
Сообщений: 0
Регистрация: 18.03.2007




Вставить ник Цитировать выделенное в форуму быстрого ответа


Цена решает. А что касательно нового технологического процесса, новость выше.

Но и улучшенная архитектура творит чудеса, видим это на примере Maxwell.

Дальнейшее обсуждение здесь.
Перейти в начало страницы
 
D00mbringer
сообщение 03.01.2015, 19:27
Сообщение #1368


Архимагистр Игры
*****************

Репутация:   118  
Группа: Участник
Сообщений: 2755
Награды: 3
Регистрация: 18.09.2013




Вставить ник Цитировать выделенное в форуму быстрого ответа


Цитата
Цена решает

Порешала уже всё что можно. Мидлевел по цене топа. В свете 3,14пца с долларом будем радоваться купленной за 5500р 660ti еще долго laugh.gif


--------------------
Перейти в начало страницы
 
--Kalan--
сообщение 05.01.2015, 16:03
Сообщение #1369


Игровой бог Вселенной
**************************

Репутация:   3096  
Группа: Супермодератор
Сообщений: 23488
Награды: 16
Регистрация: 30.08.2006




Вставить ник Цитировать выделенное в форуму быстрого ответа


MSI Z97A Gaming 6: первая материнская плата с разъёмом USB 3.1

В конце лета прошлого года была выработана финальная версия спецификаций USB 3.1, которая предполагает не только использование симметричного разъёма нового типа (Type-C), но и возможность переназначения выводов, что позволит существенно расширить возможности интерфейса. Одной из первый поддержку USB 3.1 в своих материнских платах реализовала компания MSI, о чём пишет сайт TechReport.


Единственный разъём USB 3.1 появился на материнской плате Z97A Gaming 6. Также решение предлагает три слота PCI Express x16, четыре слота PCI Express x1, слот M.2, шесть портов SATA 6 Гбит/с (предусмотрена поддержка SATA Express) и прочее. Как и все материнские платы на основе чипсета Z97, модель Z97A Gaming 6 приспособлена для работы с процессорами в исполнении LGA 1150.

Пока неизвестно, когда MSI планирует начать продажи Z97A Gaming 6. Между тем, пока оборудования, поддерживающего USB 3.1, в продаже тоже нет, поэтому покупку данной платы можно рассматривать лишь в качестве "задела" на будущее.



--------------------
"Не так просто поймать рыбку в сачок, если у нее с собой дробовичок" © Разум Фримена
"Ивасик-дурасик выпил весь квасик, а потом как дурак прудил целый часик" © Ведьмак 3


Перейти в начало страницы
 
Коннор
сообщение 06.01.2015, 17:57
Сообщение #1370




Репутация:   0  
Группа: Припаркованный аккаунт
Сообщений: 0
Регистрация: 18.03.2007




Вставить ник Цитировать выделенное в форуму быстрого ответа


USB 3.1: быстрее, универсальнее, мощнее

Интерфейс USB 3.1 имеет целый ряд преимуществ над каналом передачи данных предыдущего поколения. Посетители выставки CES 2015 смогли убедиться в этом на собственном опыте.

Согласно спецификации, пропускная способность USB 3.1 составляет 10 Гб/c. Это вдвое выше, чем у интерфейса USB 3.0. Коллегам издания The Verge удалось на одном из стендов CES 2015 оценить производительность интерфейса нового стандарта. При подключении внешнего контроллера с парой SSD-накопителей, работающих в RAID-массиве, реальная линейная скорость передачи данных составляла порядка 820 МБ/c. Очень даже неплохо иметь такие трансферы для внешнего накопителя.

Напомним, что важным преимуществом USB 3.1 также является симметричный разъем USB Type-C, позволяющий подключать интерфейсный кабель, не задумываясь об ориентации коннектора. А если еще учесть, что порты USB 3.1, поддерживающие USB Power Delivery, позволяют передавать до 100 Вт энергии, то нам остается лишь с нетерпением ожидать появления в продаже систем, оснащенных усовершенствованным интерфейсом и устройств, которые эффективно будут использовать преимущества шины нового стандарта. Длительный период прототипов и бесконечной обкатки завершен, внедрение USB 3.1 полным ходом должно начаться уже в начале нынешнего года.
Перейти в начало страницы
 
pentax
сообщение 06.01.2015, 21:57
Сообщение #1371


Кандидат Игровых Наук
******************

Репутация:   367  
Группа: Участник
Сообщений: 3201
Награды: 10
Регистрация: 16.07.2008




Вставить ник Цитировать выделенное в форуму быстрого ответа


CES 2015: Wi-Fi роутеры D-Link со скоростью до 5,3 Гбит/с



На выставке Consumer Electronics Show в Лас-Вегасе компания D-Link анонсировала свои новые беспроводные маршрутизаторы AC5300, AC3200, AC3100 с поддержкой трёхдиапазонного Wi-Fi 802.11ac, которые принадлежат к сегменту Ultra Performance. И в данном случае этот термин не просто выдумка маркетологов, они действительно обладают «ультра-производительностью». Младшие версии AC3200 и AC3100 характеризуются скоростью передачи данных до 3,2 и 3,1 Гбит/с соответственно, а флагманская модель AC5300 и вовсе может обеспечить скорость до 5,3 Гбит/с.

Также впечатляющие новинки включают Gigabit Ethernet-контроллер, мощные антенны и порты USB 3.0. В модели AC3200 используется 1-ГГц двухъядерный процессор (насчет двух остальных данных пока нет). Пользователь может управлять роутерами с использованием смартфона или планшета. Также устройства обладают интересным внешним видом, напоминающим футуристический космический корабль. И шесть антенн вписываются в него очень гармонично, дополняя задумку дизайнеров.

Пока что в продаже доступна лишь модель AC3200. Её можно заказать в интернет-магазине NewEgg по цене $310. Остальные новинки появятся уже в следующем квартале.

3dnews.ru
Перейти в начало страницы
 
Коннор
сообщение 13.01.2015, 10:58
Сообщение #1372




Репутация:   0  
Группа: Припаркованный аккаунт
Сообщений: 0
Регистрация: 18.03.2007




Вставить ник Цитировать выделенное в форуму быстрого ответа


Blu-ray Disc Association раскрыла технические детали дисков Blu-ray 4K

Консорциум Blu-Ray Disc Association на днях обнародовал спецификации Blu-ray-дисков с 4K-контентом (которые, как стало известно ранее, появятся в продаже в конце 2015 г.). Хоть это пока и «черновой» вариант, от окончательного он, скорее всего, отличаться почти не будет.

Так, официальное название таких дисков – Ultra HD Blu-ray, лицензиаты получат всю необходимую техническую информацию к середине текущего года, с тем чтобы к католическому Рождеству успеть поставить на рынок первые коммерческие продукты. Кроме поддержки разрешения 3849×2169 точек (при частоте кадров до 60 кадров/сек), обещается также HDR, более широкий цветовой охват (вплоть до цветовых пространств Rec. 2020 или BT2020) и 10-битная глубина цвета.

Будут доступны двухслойные диски объемом 66 ГБ и трехслойные – 100 ГБ. К сожалению, для воспроизведения дисков Ultra HD Blu-ray понадобятся новые проигрыватели – обновить уже существующие не выйдет. Новые Ultra HD Blu-ray плееры будут поддерживать кодек H.265, HDMI 2.0 и будут обратно совместимы не только с существующими Blu-ray дисками, но и с DVD и даже с VCD.
Перейти в начало страницы
 
tom-m15
сообщение 22.01.2015, 13:29
Сообщение #1373


You're never too young to have a plan. ©
************************

Репутация:   2131  
Группа: Участник
Сообщений: 14955
Награды: 14
Регистрация: 20.02.2009




Вставить ник Цитировать выделенное в форуму быстрого ответа


NVIDIA GeForce GTX TITAN-X будет стоить $1350



Вокруг будущего флагмана NVIDIA на базе чипа GM200 циркулирует ряд слухов. Одним из последних является опубликованный ресурсом EXPReview о том, что новинка получит название GeForce GTX TITAN-X и будет стоить $1350. Это на 350 долларов выше классической цены на однопроцессорные «Титаны».

По всей видимости, карта будет комплектоваться 6 гигабайтами видеопамяти, а впоследствии будут выпущены версии и 12 гигабайтами. Как выглядит GM200, мы уже знаем. В данном случае он будет работать в полноценной конфигурации с 24 активными кластерами SMM (3072 поточных процессора). Тактовая частота неизвестна. Любопытно, что производительность нового TITAN в профессиональных приложениях, скорее всего, будет очень хорошей.

Поскольку впервые GM200 появится в составе Quadro M6000, это автоматически означает высокую производительность в режиме двойной точности вычислений (FP64), а значит, соответствующие блоки в составе чипа не заблокированы. К тому же серия TITAN позиционируется для профессионалов с ограниченным бюджетом, которым не по карману решения серии Quadro. Вероятнее всего, цена на отметке $1350 продержится всего несколько месяцев, после чего новинку можно будет приобрести менее чем за $1000.


--------------------
#SecretProjectGM



Форум, это место где люди выслушивают аргументы друг друга, а не только высказывают свое мнение.
Перейти в начало страницы
 
Коннор
сообщение 26.01.2015, 18:42
Сообщение #1374




Репутация:   0  
Группа: Припаркованный аккаунт
Сообщений: 0
Регистрация: 18.03.2007




Вставить ник Цитировать выделенное в форуму быстрого ответа


nVidia объясняет проблему с памятью в GeForce GTX 970

Недавний скандал разразился вокруг последних новинок nVidia — графических карт GeForce GTX 980 и GeForce GTX 970. Как известно, они имеют разное количество активных шейдерных процессоров, но одинаковую подсистему памяти, и, казалось бы, здесь никакого влияния на производительность в играх в зависимости от модели быть не должно. Но многочисленные сообщения в Сети подтверждают — в современных играх при высокой детализации и в достаточно высоких разрешениях GeForce GTX 970 выделяет им только 3,5 Гбайт видеопамяти, в то время как GeForce GTX 980 — все необходимые 4 Гбайт.


GeForce GTX 970: три кластера SMM из шестнадцати отключено

Разумеется, nVidia пришлось объясняться перед пользователями: кому понравится ситуация, когда две одинаковые (в части подсистемы памяти) видеокарты работают по-разному, и, разумеется, с преимуществом в пользу более дорогой модели. И нет ли тут специального маркетингового ограничения, побуждающего пользователя задуматься о приобретении GeForce GTX 980. Вкратце объяснение nVidia звучит так: в силу иной конфигурации вычислительных блоков (13 активных кластеров из 16) эта часть GPU имеет меньше связей с контроллерами памяти, и в итоге весь четырёхгигабайтный массив видеопамяти пришлось разделить на две неравные области, объемом 3,5 и 0,5 Гбайт, выставив у первой области более высокий приоритет доступа, поскольку большинство игр всё же обычно не требует больше 2 — 3 Гбайт. При необходимости задействуются оба сегмента памяти, но некоторые утилиты сторонних разработчиков якобы могут отображать только 3,5 Гбайт.


Производительность падает почти одинаково

По словам nVidia, проблем с доступом к дополнительному сегменту памяти на GeForce GTX 970 нет, и доказательством этому должна служить вышеприведённая таблица с результатами тестов двух графических карт в двух режимах — с расходом видеопамяти менее 3,5 Гбайт и, соответственно, более этого значения. В обоих случаях наблюдается существенное падение производительности при использовании экстремальных режимов, но в процентном соотношении, считает компания, GeForce GTX 970 ведёт себя ничуть не хуже старшего собрата. Тем не менее, наши коллеги с ресурса WCCFtech считают, что платить за подключение второго сегмента памяти на GeForce GTX 970 всё же приходится. В итоге несложных подсчётов было установлено, что если бы подсистема GeForce GTX 970 вела бы себя так же, как в GeForce GTX 980, то чистая производительность у одной из самых популярных графических карт наших дней была бы выше — примерно на 2 — 5 %.

По всей видимости, сегментация всё же сказывается, и со вторым, меньшим сегментом видеопамяти, графический процессор работает не столь быстро или эффективно, как с первым, основным. К сожалению, информации, предоставленной nVidia, недостаточно, чтобы понять, насколько эта проблема может проявляться в других сценариях или, к примеру, проявляться не в падении производительности, а в худшей равномерности частоты кадров. Для этого необходимо специальное отдельное исследование. К счастью, проблема затрагивает сравнительно небольшую часть пользователей — в основном владельцев мониторов с экстремальным разрешением 3840x2160 или выше. Но им в любом случае есть смысл подождать появления карт nVidia с 8 Гбайт видеопамяти на борту или же обратиться в сторону AMD Radeon R9 290X с таким же объёмом памяти, который уже доступен на рынке. Или подождать новинок на базе GM200 и Fiji.

Сообщение отредактировал KoNoRIMCI - 26.01.2015, 18:43
Перейти в начало страницы
 
Коннор
сообщение 27.01.2015, 10:47
Сообщение #1375




Репутация:   0  
Группа: Припаркованный аккаунт
Сообщений: 0
Регистрация: 18.03.2007




Вставить ник Цитировать выделенное в форуму быстрого ответа


nVidia GeForce GTX 970 в деталях: 56 RBE и урезаный кеш

Корпорации nVidia не удалось отделаться общими словами о различиях в подсистемах памяти графических адаптеров GeForce GTX 970 и GeForce GTX 980, и в итоге она опубликовала полные данные, касающиеся этой проблемы. Напоминаем, GeForce GTX 970 в текущем варианте не умеет полноценно работать со всем банком видеопамяти, составляющим, как мы помним, 4 Гбайт, и вынуждена делить его на два сегмента, первичный и вторичный — объемами 3,5 и 0,5 Гбайт соответственно. В нынешние дни разработчики графических процессоров редко публикуют подробные блок-схемы своих чипов, ограничиваясь общими диаграммами, но nVidia пришлось вернуться к практике былых времён, когда строение чипа на блок-схеме изображалось более подробно.


Общая диаграмма не отображает главного

Дело в том, что у GeForce GTX 970 не 64 модуля растровых операций (RBE/ROP), как считалось (и было объявлено) ранее, а всего 56, а эта подсистема всегда очень тесно связана с подсистемой видеопамяти. При этом, разумеется, любой современный GPU имеет в своём составе довольно большой кеш; в случае с GM204 его объём равен 2 Мбайт, но он, согласно числу основных вычислительных массивов, разбит на четыре блока с двумя разделами кеша в каждом. Нетрудно подсчитать, что при общем объёме кеша 2 Мбайт (2048 Кбайт) каждый раздел имеет ёмкость 256 Кбайт. Тут-то и кроется объяснение поведения GeForce GTX 970 по отношению к видеопамяти. Дело в том, что в версии графического процессора, которая устанавливается на эти карты, отключены не только три кластера SMM из шестнадцати, но и один из восьми разделов кеша второго уровня, что из 2048 Кбайт оставляет только 1792 Кбайт.


Конфигурация подсистем GeForce GTX 970 в деталях

Приведённая диаграмма наглядно объясняет, почему в итоге банк видеопамяти приходится делить на два раздела: одному из восьми контроллеров памяти просто не с чем соединяться, поскольку этот блок кеша отключён. В итоге последний порт коммутатора (crossbar) подключён сразу к двум контроллерам памяти вместо одного, что и порождает сегментацию. Более того, последний блок памяти работает всего лишь на 1/7 скорости основного раздела ёмкостью 3,5 Гбайт, что вкупе с усечённым кешем и необходимостью синхронизации двух разделов видеопамяти и вызывает проблемы, освещённые в нашей предыдущей заметке. В итоге проблем с доступом ко всем 4 Гбайт видеопамяти у GeForce GTX 970 нет; здесь неприятен сам факт того, что о наличии на борту GeForce GTX 970 всего 56 RBE было публично сообщено лишь сейчас, а не в момент анонса продукта. nVidia говорит, что это произошло вследствие недоразумения и недопонимания между инженерным и маркетинговым отделами. Но ситуация такова, что в ней легко оправдаться задним числом, в результате чего практически невозможно доказать, совпадает ли официальная версия с реальным положением дел.
Перейти в начало страницы
 
Коннор
сообщение 01.02.2015, 18:39
Сообщение #1376




Репутация:   0  
Группа: Припаркованный аккаунт
Сообщений: 0
Регистрация: 18.03.2007




Вставить ник Цитировать выделенное в форуму быстрого ответа


Для мобильного G-Sync не потребуется аппаратный модуль?

Невнимательность сотрудников nVidia привела к утечке информации о готовящейся технологии G-Sync для мобильных систем, в частности игровых ноутбуков серии Asus ROG. Программная поддержка G-Sync была реализована в альфа-драйвере GeForce 346.87 для внутреннего пользования, который был ошибочно предоставлен одному из шведских энтузиастов для решения проблемы, никак не связанной с G-Sync.


При разборке ноутбука (Asus G751), в котором после установки GeForce 346.87 неожиданно обнаружился «G-Sync дисплей», не было обнаружено никаких следов одноименной платы или чипа с соответствующим логотипом. Следовательно, в nVidia пошли по стопам AMD с ее FreeSync и реализовали механизм синхронизации частоты обновления экрана с кадровой частотой программными методами. Представители nVidia отказались комментировать факт утечки драйвера версии 346.87, но отметили, что наличие аппаратного модуля G-Sync не является обязательным условием для работы соответствующей технологии. Таким образом, в будущем можно ожидать удешевления всего, что связано с G-Sync, в частности мониторов.

Мобильная версия nVidia G-Sync не потребует специального адаптера

Прошедшая неделя была не слишком хорошей для nVidia: сначала скандал с объёмом и скоростью работы памяти у GeForce GTX 970, а теперь новости, касающиеся технологии адаптивной синхронизации nVidia G-Sync, точнее, её мобильной версии. Как выяснилось, мобильная версия G-Sync не потребует установки в ноутбук специального аппаратного контроллера, и тут сразу же возникает вопрос: почему его наличие требуется в настольных системах? Сама причина использования недешёвого контроллера ранее объяснялась тем, что современные технологии, применяемые в мониторах, не способны поддерживать настоящую динамическую смену частоты кадров на лету.

Этот же довод приводится в качестве аргумента против AMD FreeSync, технологии, которая базируется на основах стандарта DisplayPort 1.2a, в котором также предусмотрена адаптивная синхронизация. А теперь мы узнаём, что nVidia G-Sync, оказывается, способна работать и без вышеупомянутого контроллера? Если он и необходим для мониторов со старыми интерфейсами, то почему бы не отказаться от этого контроллера в случае, если монитор и так поддерживает современный стандарт DisplayPort 1.2a? Его возможностей должно быть более чем достаточно, чтобы обеспечить более высокое качество изображения в динамике по сравнению со стандартной опцией VSync. Программная реализация G-Sync была замечена и подвергнута тестированию зарубежными коллегами с ресурса GameNab. Пока она работает не без проблем, однако панель ноутбука, на котором производилось тестирование, определялась как «G-Sync-совместимая» и разница в плавности между этим режимом и классическим, определённо, есть.

Но анализ, проведённый специалистами ресурса PC Perspective, показал, что программная версия G-Sync все же отличается в работе от аппаратной, так что последняя всё-таки стоит своих денег. Но здесь сразу же возникает другой вопрос: как скоро в сети появятся модифицированные драйверы nVidia для настольных систем, реализующие эту же функцию программно? В том, что они появятся, сомневаться не приходится, вопрос в том, насколько хорошо эта технология будет работать. В таком виде nVidia G-Sync подозрительно напоминает AMD FreeSync, и, возможно, именно об этом и шла речь в ранее встречавшихся слухах о том, что nVidia поддержит FreeSync. Официальных комментариев со стороны nVidia пока не поступало.
Перейти в начало страницы
 
tom-m15
сообщение 02.02.2015, 14:22
Сообщение #1377


You're never too young to have a plan. ©
************************

Репутация:   2131  
Группа: Участник
Сообщений: 14955
Награды: 14
Регистрация: 20.02.2009




Вставить ник Цитировать выделенное в форуму быстрого ответа


Super Flower представила первый блок питания мощностью 2000 Вт



Компания Super Flower выпустила первый в мире блок питания мощностью 2000 Вт 8Pack, который доступен обычным пользователем. Устройство создавалось в сотрудничестве с оверклокером Ian 8Pack Parry.

Блок питания получил сертификат 80 PLUS Platinum, что обеспечивает энергоэффективность 92%, 94% и 90% при нагрузке 20%, 50% и 100% от максимальной. Полностью модульная система подключения кабелей позволяет запитать четыре видеокарты.

Super Flower 8Pack получил качественные японские конденсаторы, которые предназначены для работы при температуре до 105 градусов Цельсия. Девайс использует единую шину +12 В, рассчитанную на ток до 166,6 А, с активной коррекцией коэффициента мощности. Габариты устройства составляют 150x86x220 мм. Для охлаждения используется 140-мм вентилятор.

Super Flower 8Pack уже поступил в продажу по рекомендованной цене 370 евро. Производитель дает на блок питания 5 лет гарантии.


--------------------
#SecretProjectGM



Форум, это место где люди выслушивают аргументы друг друга, а не только высказывают свое мнение.
Перейти в начало страницы
 
Коннор
сообщение 25.02.2015, 20:33
Сообщение #1378




Репутация:   0  
Группа: Припаркованный аккаунт
Сообщений: 0
Регистрация: 18.03.2007




Вставить ник Цитировать выделенное в форуму быстрого ответа


ASRock демонстрирует первую плату с разъёмом LGA1151


Как известно, шестое поколение процессоров Intel под кодовым названием Skylake потребует очередной замены материнской платы, поскольку новые процессоры будут иметь разъём LGA1151. Несмотря на то, что в нём всего на один контакт больше, он не будет совместимым с наиболее популярным на сегодня LGA1150. Разумеется, выпуск процессоров — полдела. Им потребуется соответствующая инфраструктура, и, похоже, некоторые производители системных плат уже готовы её предоставить.

В частности, первая плата с разъёмом LGA1151 была замечена на выставке Embedded World 2015, проходящей в Нюрнберге. Интересно, что пионером, представившим новинку, стала не ASUS или GIGABYTE, а ASRock. Новинка носит имя IMB-190 и имеет форм-фактор Mini-ITX. Конечно, она использует новый чипсет, но какой именно, на стенде не указано. Вероятнее всего, это Q170. Из приведённых спецификаций видно, что плата рассчитана на использование памяти DDR3L с частотой до 1600 МГц, максимальным объёмом 16 Гбайт, что по нынешним меркам всё же маловато. Зато дисплейные интерфейсы представлены в полном объёме: на плате целых три порта HDMI, один 24-битный двухканальный порт LVDS (eDP).

Прочие возможности ввода-вывода включают в себя восемь портов USB, из которых четыре имеют версию 3.0, два порта SATA 3.0 и порт mSATA. Из слотов расширения на плате есть один разъём miniPCIe и один PCIe 4x 3.0 с прорезью, допускающий установку карт с разъемом 16х. Естественно, на плате имеется и контроллер Gigabit Ethernet с двумя портами. Питание подаётся через единственный разъем, допустимое напряжение от 12 до 24 вольт. Это говорит о том, что данный продукт предназначен для компактных встраиваемых систем, цифровых киосков, торговых систем, компактных ПК или HTPC.

Что касается процессорного разъёма, то внешне он похож на LGA1150, но электрически с ним не совместим, что обусловлено, в том числе, и тем, что в Skylake Intel решила отказаться от интегрированного регулятора напряжения, перенеся его в более привычное место — на материнскую плату. Интересно, что плата поддерживает DDR3L, хотя платформа Skylake рекламируется Intel, как первая платформа с «родной» поддержкой DDR4. Но удивляться этому не стоит, мы давно знаем, что контроллер памяти Skylake будет поддерживать оба типа памяти, а DDR3 на сегодняшний день всё ещё существенно дешевле, нежели DDR4. Решать, какой тип памяти реализовать в своих продуктах, предстоит производителям системных плат.

DirectX 12 позволит работать в тандеме Radeon и GeForce


Проблема синхронизации нескольких графических карт стоит давно и до сих пор решена лишь частично, по крайней мере, в секторе игровых решений. Профессиональные используют сложные и дорогие системы с функцией genlock, но они обеспечивают не столь хорошую масштабируемость, как технологии AMD CrossFireX и NVIDA SLI. Ещё сложнее подружить карты разных производителей, хотя и такие попытки предпринимались — достаточно вспомнить технологию HYDRA Engine, разработанную в стенах Lucid Logix. Все они были неудачны: стабильность и совместимость такой системы оказались неудовлетворительными. Мы знаем, что новая версия DirectX под номером 12 будет гораздо более низкоуровневой, поскольку концепция высокоуровневых API, похоже, достигла потолка своих возможностей и не может более развиваться эффективно.

Одной из наиболее интересных возможностей DirectX 12, обеспеченных «близостью к железу» является Explicit Asynchronous Multi-GPU (прямая асинхронная многопроцессорная графическая система). Новый API Microsoft умеет распоряжаться ресурсами графических адаптеров куда более эффективно, в том числе, и в плане объединения их в единый пул. А как черпать из этого пула — остаётся решать разработчикам игр. И уже известно, что объем видеопамяти на нескольких видеокартах в системе больше не будет дублироваться. Это позволит отказаться от использования AFR (alternate frame rendering), главным недостатком которой является высокий уровень задержек (порядка 4 — 5 кадров отставания от действий пользователя), и перейти на более эффективные методы разделения нагрузки между графическими процессорами, такие как SFR (split frame rendering). Но самое интересное сообщают источники, которые наши зарубежные коллеги с Tom’s Hardware называют «надёжными».

Речь идёт, ни много ни мало, а о возможности объединения в единую графическую подсистему графических крат разных производителей! То, на что замахнулась и не смогла осилить Lucid Logix с помощью специального коммутатора, похоже, удалось Microsoft с чисто программным подходом к созданию нового API. Причём, в режиме, когда Radeon и GeForce могут работать не просто вместе, а и вовсе над обсчётом одного кадра. Это впечатляет. И открывает немало интересных перспектив, особенно в плане совместного использования технологий, ранее доступных только одному из двух лагерей — «зелёным», либо «красным». Так, предположительно, в связке с DirectX 12 можно будет использовать NVIDIA GeForce Experience и 3D Vision совместно с AMD True Audio и FreeSync. Скорее всего, при этом одна карта будет работать в режиме ведущей, а вторая — ведомой.

Также возможно будет более эффективное совместное использование ресурсов APU и GPU, а также улучшится работа мобильных устройств с двумя графическими процессорами — интегрированным и дискретным. Единственная сложность здесь — это серьёзный объём работы, который потребуется от разработчиков игр и программного обеспечения, хотя DirectX 12 будет к ним куда более дружественен, нежели старые версии API. В перспективе технология Explicit Asynchronous Multi-GPU может перевести SLI и CrossFireX в разряд устаревших технологий и полностью вытеснить их с рынка. Пока известно не так много деталей, но многое, судя по всему, будет раскрыто на конференции Game Developer Conference, которая пройдёт со 2 по 6 марта в центре Москоне, Сан-Франциско, штат Калифорния, США.
Перейти в начало страницы
 
Коннор
сообщение 01.03.2015, 14:29
Сообщение #1379




Репутация:   0  
Группа: Припаркованный аккаунт
Сообщений: 0
Регистрация: 18.03.2007




Вставить ник Цитировать выделенное в форуму быстрого ответа


Компьютерная память будет в дефиците в этом году


Несмотря на то, что Samsung Electronics планирует увеличить производственные мощности, задействованные для изготовления динамической памяти с произвольным доступом (dynamic random access memory, DRAM), аналитики полагают, что это не создаст переизбыток компьютерной памяти в этом году. Причины просты: спрос на DRAM будет расти стремительно в 2015 г.

В этом году все крупные производители смартфонов и планшетов, в том числе Apple, Samsung Electronics, LG Electronics и другие, по неофициальным сообщениям, увеличат объём памяти в своих флагманских моделях. Google Android наконец поддерживает более 4 Гбайт DRAM, а значит, смысл в увеличении объёма памяти имеется. Производители ПК также могут начать инсталлировать больше «оперативки» в свои изделия в рамках подготовки к выпуску Microsoft Windows 10. Кроме того, переход к памяти DDR4 будет сопровождаться переходом к 8-Гбит микросхемам DRAM. Таким образом, спрос на DRAM (и, как следствие, на производственные мощности для памяти) значительно вырастет в этом году. Финансовые аналитики полагают, что даже при расширении производственных мощностей DRAM маловероятно, что это вызовет переизбыток соответствующих микросхем на рынке и падение цен.

«Реальная ситуация: DRAM в дефиците в принципе», — написал Срини Сандаражан (Srini Sundararajan), аналитик Summit Research, в записке для клиентов, сообщает Tech Trader Daily. «У Samsung в прошлом году едва хватило DRAM чипов для себя, не говоря уже о поставках Apple и LG. Samsung, как белка в колесе, бежит по кругу, чтобы вернуться к тем же мощностям, что в прошлом году. Увеличение производства DRAM в этом году — это компенсация к мощностям, потерянным в результате увеличивающихся размеров кристаллов и некоторых осложнений. Как следствие, используемые производственные мощности и количество обрабатываемых подложек с большой вероятностью останутся неизменными».

Многие считают, что преемник Apple iPhone 6 (предположительно, он будет называться iPhone 6S) будет включать в себя 2 Гбайт LPDDR3 или LPDDR4 памяти вместо 1 Гбайт у текущей модели. Учитывая колоссальные объёмы продаж iPhone, подобное действие само по себе драматически увеличит спрос на память. Примечательно, но ранее на этой неделе выяснилось, что компания Apple решила подписать контракт на поставку DRAM с Samsung, чего не случалось вот уже несколько лет. Пытаясь снизить свою зависимость от поставок южнокорейского конгломерата, Apple приобретала память у Micron Technology и SK Hynix. Возвращая Samsung в свою производственную цепочку, Apple косвенно подтверждает план увеличить объём оперативной памяти у будущего смартфона.

Если дополнительные производственные мощности не окажут негативного влияния на цену памяти во втором полугодии, то есть смысл ожидать, что цена может дополнительно укрепиться. Спрос со стороны производителей ПК, смартфонов, планшетов, приставок и т.п. традиционно увеличивается в третьем квартале, что влечёт за собой рост цен. По данным DRAMeXchange, крупнейшего в мире обозревателя DRAM-рынка, Samsung, SK Hynix и Micron контролировали более 93 % мировых поставок DRAM в прошлом квартале. Таким образом, эти три компании также в значительной степени контролировали и цены на память.
Перейти в начало страницы
 
--Kalan--
сообщение 04.03.2015, 14:01
Сообщение #1380


Игровой бог Вселенной
**************************

Репутация:   3096  
Группа: Супермодератор
Сообщений: 23488
Награды: 16
Регистрация: 30.08.2006




Вставить ник Цитировать выделенное в форуму быстрого ответа


NVIDIA представила Android-консоль SHIELD на базе Tegra X1

Консоль, которую NVIDIA называет первым 4K TV на Android, представляет собой консоль, облачённую в алюминиевый корпус. В её основу легла новая однокристальная платформа Tegra X1 с 256 ядрами CUDA и производительностью более 1 TFLOPS, благодаря чему NVIDIA SHIELD выгодно отличается от таких своих конкурентов, как Apple TV и Xbox 360. Объём оперативной памяти составляет 3 ГБ, а ёмкость встроенного накопителя – 16 ГБ. Память можно расширить при помощи слота для карты MicroSD. Также имеется поддержка 802.11ac Wi-Fi, Gigabit Ethernet, Bluetooth, Twitch и ИК-приемника для обычных пультов дистанционного управления. Работает NVIDIA SHIELD под управлением Android TV и способен транслировать видео в формате 4K.


Специально для NVIDIA SHIELD создан специальный каталог, где будут представлены полсотни игр для консоли, включая Half-Life 2, War Thunder, The Talos Principle, Doom 3 BFG Edition, Star Wars: Knights of the Old Republic, Metro Last Light Redux, Batman: Arkham Origins, Ultra Street Fighter 4, Alan Wake и даже Crysis 3. Их можно будет запускать через сервис Nvidia GRID в качестве 1080p/60fps.

В комплекте с NVIDIA SHIELD будет поставляться беспроводной контроллер, для подключения которого применяется стандарт Wi-Fi Direct. Встроенный аккумулятор обеспечивает ему до 40 часов автономной работы на одном заряде.

NVIDIA SHIELD будет доступен в США в начале мая за $199. В комплекте с консолью будет поставляться один игровой контроллер. Дополнительный контроллер обойдётся в $60. Также за дополнительную плату будет предлагаться пульт ДУ. На европейском рынке устройство появится во втором полугодии.


--------------------
"Не так просто поймать рыбку в сачок, если у нее с собой дробовичок" © Разум Фримена
"Ивасик-дурасик выпил весь квасик, а потом как дурак прудил целый часик" © Ведьмак 3


Перейти в начало страницы
 
Коннор
сообщение 06.03.2015, 19:49
Сообщение #1381




Репутация:   0  
Группа: Припаркованный аккаунт
Сообщений: 0
Регистрация: 18.03.2007




Вставить ник Цитировать выделенное в форуму быстрого ответа


AMD представит семейство Radeon R9 300 на Computex 2015

Источники, знакомые с планами Advanced Micro Devices, рассказали журналистам, что компания представит новое семейство графических карт Radeon R9 серии 300 на выставке Computex в начале июня. Изначально компания предполагала выпустить одну или две новинки уже в первом квартале этого года, но в январе планы поменялись, а сейчас обрели окончательную форму.

Две задачи, которые пытается решить AMD в первой половине 2015 года, являются почти взаимоисключающими. С одной стороны, AMD требуется распродать товарно-складской запас текущей продукции; с другой – остановить падение продаж и уменьшение доли рынка. Если AMD не выпускает ничего нового, то её доходы и доля уменьшаются. Однако, представление новинок остановит продажи текущих решений, графические карты останутся на складах.

По словам азиатских источников, компания AMD изначально планировала выпустить хотя бы одну Radeon R9 серии 300 на выставке CeBIT в начале марта. Новейшее графическое решение AMD должно базироваться на последнем GPU компании и оснащаться памятью типа HBM. Предполагается, что новинка придёт на смену Radeon R9 серии 290, показав высочайшую скорость в современных играх, а также беспрецедентную производительность в разрешениях сверхвысокой чёткости: 4K (3840×2160, 4096×2160) или 5K (5120×2880).

Вне всяких сомнений, запуск подобных графических адаптеров Radeon R9 в свете скандала со спецификациями GeForce GTX 970 позволил бы AMD серьёзно укрепить позиции, отобрав долю рынка у NVIDIA. В то же время он нарушил бы продажи всех других продуктов серии Radeon R9, а потому компания приняла решение не анонсировать новые видеокарты высшего ценового диапазона в этом месяце. Конкретная причина того, почему AMD предпочитает отложить выведение новых графических процессоров на рынок, неизвестна. Логично предположить, что динамика продаж Radeon R9 280 и 290 серий не является высокой, что ожидаемо для первого квартала.

В настоящее время высшее руководство AMD поставило перед компанией задачу выпустить полностью новое семейство графических карт Radeon R9 300 к выставке Computex, в июне. Вместо выпуска одной – двух новых моделей, AMD планирует представить целое семейство, состоящее преимущественно из действительно новых графических решений. Впрочем, это не исключает появления переименованных графических адаптеров в новой линейке вскоре после официального запуска.

Хотя сроки анонса будущих графических карт AMD теперь более-менее ясны, по-прежнему непонятно, сколько именно по-настоящему новых графических процессоров планируется выпустить в июне этого года. Судя по неофициальным данным, нас могут ожидать два полностью новых GPU, а также решения на основе графического чипа Tonga. Следует понимать, что как только в AMD утвердят финальные характеристики флагманских Radeon R9 серии 300 и начнут их массовое производство, планы компании по запуску могут быть изменены.

AMD не комментирует сообщения о планах и графике запуска новой продукции. Однако компания косвенно подтвердила на технологической конференции Morgan Stanley, что её новые графические процессоры будут выпущены к концу второго квартала. Таким образом, их продажи материально отразятся на разработчике GPU лишь во втором полугодии. Судя по всему, AMD рассматривает вторую половину этого года как тот отрезок времени, когда она будет возвращать проигранную NVIDIA долю рынка.

«Мы уверены, что с новым продуктом во втором полугодии мы получим назад свою долю рынка, которая сегодня крайне низка по сравнению с историческими показателями», – сказал Девиндер Кумар, финансовый директор AMD, в беседе с аналитиками. «Наша доля рынка графических адаптеров должна быть существенно больше, чем та, что мы имеем сейчас».

Перейти в начало страницы
 

80 страниц V  « < 67 68 69 70 71 > » 
Ответить в данную темуНачать новую тему
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0

 



Текстовая версия Сейчас: 19.04.2024, 19:19