Что значит настоящий антиаллайзинг? Каждый из современных алгоритмов сглаживания хорош по своему, особенно когда есть широкий выбор используемого разрешения. Главная задача АА - убрать "зубцы" на краях объектов за как можно более меньшие ресурсы. Вот несколько примеров:SMAA - эрзац настоящего мультисемплинга, как и TSSAA. и только в Order 1886 используется настоящий антиаллиазинг, но разрешение там не 1920х1080, а 1920х800. И я ещё раз повторяю, на ПК ты не можешь запустить любую игру с аа - есть игры которые не будут поддерживать аа даже при включении последнего через драйвер. Ну а про тени и текстуры - посмотри сравнение графики в новом Думе. Там всё очень хорошо видно.
SSAA - самый прожорливый алгоритм и вместе с тем самый "правильный". Основан на мультисэмплинге, т.е. учитывает не только одну точку пикселя, но и окружение (в зависимости от количество семплов). Ничего не мылит в принципе. Если уж применять термин "тру-АА", то это именно он и никак не MSAA. Насколько я понимаю, сегодня "тру-АА" уже нигде не используется, ибо при потреблении таких ресурсах, которые требует SSAA включать его просто не имеет смысла. По крайней мере я не вспомню когда последний раз его видел... Witcher 2 мэйби.
MSAA - более умный и вместе с тем, менее "честный" алгоритм сглаживания. В отличии от SSAA учитывает сэмплы не во всех пикселях, а лишь по мере надобности. Кроме того, даже без дополнительных сэмплов размывает картинку. Использовался ещё во времена PS3/360. Поскольку алгоритм использовал GPU то и применялся чаще на 360-ом, чем на PS3 (GTAIV - 2x MSAA, Assassin's Creed - 2x MSAA, Final Fantasy XIII - 2x MSAA, Batman: Arkham Asylum - 2x MSAA, Street Fighter IV -2x MSAA, Heavy Rain - 2x MSAA, Fallout 3, The Darkness - 4x MSAA, Dirt - 4x MSAA, Heavenly Sword - 4x MSAA).
MLAA - алгоритм сглаживания использующий ресурсы CPU (подобного, лично я, ещё не видел). Пускай и не работает на уровне построения, а используется с уже отрендеренной картинкой в самом конце, но справлялся со своей задачей, на мой взгляд, отлично. На примере God of War III - демка игры использовала 2x MSAA, тогда как в финальном релизе был уже MLAA (полагаю, не просто так). Частенько можно было встретить в играх на PS3, благодаря Cell'у. (God of War III, Killzone 3, Little Big Planet 2, Alice: Madness Returns, Deus Ex: Human Revolution, Hitman: Absolution, Medal of Honor: Warfighter, Need For Speed: Shift 2, Portal 2, Soul Calibur V и т.д.)
FXAA - пост-АА, почти бесплатный по ресурсам в сравнении с остальными и, благодаря этому - самый ходовой алгоритм. Мылит картинку, но успешно борется с явной лесенкой на контрастирующий гранях. Использовался как на паст-гене, так и на PS4/XO/PC.
SMAA - использует многое из алгоритмов MLAA и FXAA. Ещё меньше блюрит изображение и менее требователен к ресурсам, чем MSAA. По мнению EG в InFamous: Second Son был один из самых впечатляющих методов сглаживания, который они когда-либо видели, не взирая на платформу.
TSSAA - впервые появился только в новом Doom'е. По словам EG - один из самых чистых алгоритмов AA, что они видели вместе с тем, который используется в Uncharted 4.
В общем, я не очень понимаю почему это консоли не могут в хороший АА. Последний пример в лице Uncharted 4 вообще заставили EG сравнить его с SSAA. В 1080p, как показывает практика, необязательно прибегать к MSAA. Во всяком случае сильно лучше картинку он не сделает. С приходом же 4К я вообще не уверен в целесообразности использования мультисэмплинга, но это уже совсем другое. Консоли вполне могут в любой АА, всё зависит от игры и разработчиков.
И не совсем понятно, зачем мне смотреть Doom или любую другую игру на предмет разницы в тенях, текстурах и т.д. на консолях и PC?
Речь о том, что FX6300 позволяет карте работать практически всегда при полной загрузки. Вот ещё видос демонстрирующий, что c FX6300 карта работает почти всегда на 100%. И о каких результатах ты говоришь? У тебя CPU не раскрывает карту или фреймрейт ниже, чем у автора видео? Если первое, то можно предположить, что проблема кроется в софте/других компонентах системы. Если фреймрейт ниже, то тут либо проблема с Kepler, либо, о Боже, конспирологические теории о том, что NVidia убивает старые карты новыми драйверами - правда. В любом случае, в сети полно видосов демонстрирующих работу видеокарт с FX6300. Не могут же все подряд врать.Я уже написал, что на моей системе должны получаться, судя по этим видео, гораздо более крутые результаты, но что-то их не видно. Отсюда вывод - автор видео где-то темнит. Может он показывает не те настройки, может ещё что, но fx8350 + 780Ti должны, как минимум, процентов на 20-25 давать более крутые результаты на тех же настройках, чем его система.
Ну и я подскажу тебе, как организовать повышенную загрузку видеокарты. Нет, не надо Фюрмарк или ещё какой-нибудь тест запускать фоном - они съедят очень много производительности. Достаточно правильно настроить майнер, который будет откусывать от производительности видеокарты нужные проценты, чтобы она казалась загруженной больше, чем есть на самом деле.