ИД "Мой компьютер"   "Игроград"   "Реальность фантастики"   Ассамблея "Портал"
Сделать стартовой   

 
Домашняя страница
Расширенный поиск
E-mail

 

N 16 (447)




МОЙ КОМПЬЮТЕР




  Новости:

 
МК
Украина
Игры
Интернет
Железо
Софт
Пресс-релизы

  Статьи:

 
Уголок читателя
Прочее
Имеющий уши
Программирование
Интернет
Железо
Софт
Игры


 
КОНКУРСЫ



Правила конкурсов

Конкурс "АВЧ"

Рейтинг победителей


ОПРОС

Вы посещаете нас:
первый раз
1-2 раза в месяц
1-2 раза в неделю
1-2 раза в день
более 2-х раз в день Что привело Вас к нам?
поиск информации
интерес к статьям
интерес к новостям
любопытство
реклама
другое








боулинг

ads.mycomputer.ua

ads.mycomputer.ua

ads.mycomputer.ua

ads.mycomputer.ua

ads.mycomputer.ua













Argumentum ad ignorantiam!

 

статьи
Железо



 

На правах рекламы  
Прочее  
Самоделкин  
Технологии  
Портативные устройства  
Корпуса и прочее  
Клавиатуры, манипуляторы  
Периферия  
Носители информации  
Сети, комуникации  
Видео  
Материнки, чипсеты  
Процессоры, пямять  




    Технологии


Железные итоги — 2006

Bateau
N 3 (434) 28.12.2006


Intro

Процессоры и чипсеты

Думаю, нет особой нужды напоминать вам, под знаком какой компании прошёл 2006 год на процессорном рынке. Однако хотелось бы отметить довольно редкое среди топовых IT-брэндов событие — смену корпоративного имиджа (в частности, основного логотипа, логотипов всей линейки продукции и главного слогана). И ладно бы кто другой, но в начале 2006 года мир увидел новое лицо самой Intel. Более строгое, более серьёзное и более собранное. Прощай, старый добрый овальчик с надписью «intel inside» и провалившейся буквой «е»! Тебя увековечили вездесущие фотожаберы различными «tampax inside» и «lamer outside»… Спи спокойно — мы не забудем тебя. А что касается нового лого, то оно, без сомнения, гораздо больше соответствует компании, которая настолько далеко вырвалась вперёд в извечной конкурентной борьбе.

Сама борьба, как вы знаете, идёт уже долго и практически по всем фронтам. Стоит одной компании сделать какое-либо движение в каком-либо направлении, как другая тут же отвечает аналогичным шагом. Противостояние перебралось даже в достаточно далёкую от компьютерной сферы серию «королевских гонок» — «Формулу-1», где Intel и AMD спонсируют две конкурирующие «конюшни». Кстати, этот запал передаётся и партнёрам обоих компаний. Например, в начале 2006 года ASUS выпустила серию люксовых ноутбуков под брэндом Lamborghini. Вроде бы это был ответ на серию Ferrari от Acer, однако показательно то, что Acer использовал процессоры AMD, а ASUS — Intel.

Ну, а начнём издалека. Ещё в конце 2005 года появились первые тесты «нашего ответа Чемберлену» — процессора Turion от AMD, который должен был составить серьёзную конкуренцию мобильной платформе Centrino компании Intel. В январе начались поставки этого прямого наследника архитектуры Athlon 64, собранного с использованием 90 нм техпроцесса. Соответственно, все недостатки «шестьдесятчетвёрки» остались и в Turion’e, однако к достоинствам добавилось сверхнизкое энергопотребление — всего 35 Вт. Ещё эти процессоры интересны тем, что у них имеется «собственный» контроллер памяти, в то время как Pentium M использовал тот, который входит в состав чипсета. Такое решение позволило добиться значительного уменьшения задержек при считывании данных «вразнобой»; впрочем, отсутствие поддержки DDR2 и двухканального режима тоже не сильно повлияло на производительность, поскольку Pentium M работал через шину 533 МГц максимум — а это далеко не то, что способно раскрыть весь потенциал DDR2. Собственно, идеология AMD понятна и последовательна — примерно та же производительность, что и у Intel, примерно с тем же тепловыделением, но… гораздо дешевле. Разница в цене составляла на начало года 1.5–2 раза. Тесты показали конкурентоспособность Turion. Да, он оказался немного слабее Pentium M, чуть более прожорливым в плане энергопотребления, однако за счёт цены выглядел отличным вариантом.

Чуть позже появился Turion X2, как альтернатива мобильному варианту обновлённой платформы Centrino Duo. Он уже поддерживал и двухканальный режим, и DDR2, а последнее достаточно важно для ноутбуков, поскольку DDR первого поколения имеет почти вдвое большее напряжение питания и, соответственно, активнее сажает батарею компьютера. Однако в большинстве тестов Turion всё-таки уступает Centrino Duo, не говоря уже о мобильных Core 2 Duo, которые сменили своих предшественников в этом году. Единственным очевидным преимуществом, как нетрудно догадаться, стал чипсет от ATI со встроенным графическим ядром, которое заметно выигрывает в плане поддержки различных технологий у решений Intel. Впрочем, скорый выход Intel GMA 3000 с программируемыми шейдерными блоками и планируемой поддержкой Pixel Shader Model 4 должен прижать конкурента и по части пригодности к играм. Кстати, сам по себе рынок ноутбуков в Украине за последний год рос в три раза быстрее, чем рынок настольных систем. Эта тенденция повторяет то, что происходило в Японии, США и Европе пару-тройку лет назад. Покупатели постепенно понимают, что разница в цене уже не так велика, зато удобство… Тем более, что при современных темпах смены поколений чипсетов (2–3 года) необходимость в «глобальном» апгрейде компьютера как-то сама собой отпадает. Наиболее частыми остаются случаи наращивания объёма ОЗУ, а также расширения ёмкости винчестера. Но это достаточно легко апгрейдится и в ноутбуках. В стороне пока остаются только геймеры, которым приходится менять видеокарты гораздо чаще, чем процессоры.

Что касается настольных систем, то тут снова придётся начать с AMD, которая выпустила в начале года двухъядерный Athlon 64 FX-60, призванный составить конкуренцию тогдашнему флагману от Intel, носящему гордое имя Pentium XE 955. Кстати, нужно отметить, что с внедрением в процессоры контроллера памяти DDR2 AMD пришлось разработать и новый разъём — специально под новые Athlon 64 AM2. Механически он не очень сильно отличался от Socket 939, однако по самой разводке различия имелись довольно серьёзные. Так что пришлось вносить небольшие изменения и в конфигурацию контактов, чтобы исключить возможность установки нового процессора в неподходящий слот (и наоборот). В общем-то задумка удалась. И первые месяцы 2006 года AMD провела в лидерах благодаря хорошим обновлениям как в мобильном, так и в настольном секторах рынка. Но потом началось…

Собственно, запуск новых процессоров от Intel можно было спокойно предсказать ещё 2–3 года назад, поскольку наработки платформы Centrino оказались невероятно удачными. Не оставалось никаких сомнений и в том, что Intel, изрядно намучившись с архитектурой Net-Burst (Pentium 4 и Celeron’ы соответствующего поколения), переведёт «гонку вооружений» в совершенно иное русло. Хотя на самом деле изменения пока что не на все 100% оправдывают ожидания. Впрочем, не будем отнимать у процессоров Core Duo того, что на более низких частотах и с гораздо более скромным тепловыделением они обгоняют своих предшественников aka Pentium 4 весьма и весьма ощутимо. Но если Net-Burst по-хорошему предусматривал рост производительности в основном за счёт наращивания тактовой частоты процессора, то, перейдя на Core, компания Intel окончательно взяла курс на наращивание числа ядер. Core Duo, как вы понимаете, был всего лишь первой ласточкой, вслед за которой совсем недавно выпорхнул первый четырёхъядерный «орёл» с маркировкой Core 2 Extreme. А в планах корпорации отчётливо видны процессоры с 8 и более ядрами. Правда, о точном времени появления таких монстров Intel пока ничего не говорит, так что, скорее всего, это случится не раньше, чем масштабная кампания по «перевоспитыванию» программистов на «многопоточное мышление» начнёт приносить ощутимые плоды. Но факт остаётся фактом — под несколько ядер уже заточена новейшая Windows Vista, а также приличное количество различного софта. Правда, по большей мере, профессионального и узкоспециализированного.

Кстати, с появлением Core Duo в мире IT свершилась ещё одна мини-революция. Компания Apple, которая всю историю своего существования словно противопоставляла свою продукцию остальному компьютерному миру, начала использовать процессоры Intel. Более подробно о новых Маках вы могли прочитать в двух наших статьях, но если говорить в целом, то при сохранении «фирменных» преимуществ компьютеров Apple у них появилась гибкость, которая придётся по душе многим пользователям РС. Ведь платформа Intel означает, что как минимум на «переходной период» пользователь может просто-напросто установить на Мак Windows. Буквально год назад о таком даже подумать никто не мог.

При этом выбор Apple очень сильно повлиял на имидж Intel. Собственно, первые MacBook Pro и iMac с процессорами Core Duo поступили на рынок уже в январе 2006 года, а IBM, которая лишилась такого знатного клиента, сосредоточилась на сотрудничестве с Sony в создании нового процессора Cell для PlayStation 3, а также на разработке действительно уникального Power6, который использовал кремний с изменёнными физическими свойствами. Благодаря этому Power6 должен работать на частотах 4–5 ГГц, что в 2–3 раза выше, чем частоты конкурентов от Intel, AMD и Sun. Возможно, именно такая «параллельная» работа над наращиванием мощности со стороны IBM (Power6 тоже был многоядерным, как и решения от Intel) стала причиной скромных результатов Intel Itanium, в который было вложено несколько десятков миллиардов долларов. Впрочем, кто станет победителем на рынке процессоров для мейнфреймов и серверных систем высшего уровня, мы увидим только в нынешнем, 2007 году — после выхода Power6 в открытую продажу. Хотя не секрет, что этот процессор в будет интересен не только «особым» кремнием, но и тем, что он будет производиться по 65 нм техпроцессу. А это сделает его как минимум равноправным конкурентом для Intel. Насколько успешно пройдёт внедрение так громко анонсированной 45 нм технологии для Core 2 Duo? По заверениям Intel, уже запущены две фабрики, которые способны производить процессоры по этому техпроцессу, дело только за окончательной наладкой и началом выпуска готовой продукции.

Но не будем отвлекаться от темы.

Пока AMD рапортовала о небывалом росте продаж, а тестеры не могли нарадоваться на новые Turion’ы и Athlon’ы, Intel скромно признавала тот факт, что часть рынка была проиграна в пользу конкурента. И даже хуже — в Интернете стали ходить довольно неприятные слухи относительно стартовавших в январе Core Duo и Core Solo. Были обнародованы внушительные списки известных ошибок, среди которых оказалось немало критических. В принципе, при запуске процессоров абсолютно новой архитектуры подобные неурядицы являются вполне обычным делом, однако на сей раз время было крайне неудачным. Intel отмечала некоторый спад продаж на рынке настольных процессоров, который оправдывался нехваткой соответствующих чипсетов. Но, конечно же, не менее важным было активное давление со стороны AMD. На Core Duo (Solo) возлагались очень большие надежды, поэтому все недостатки подвергались очень острой критике.

Удар «под дых» нанесла даже всемирно известная Google, которая в марте 2006 года начала производить закупки процессоров AMD Opteron для использования в своих серверах по всему миру. До этого, понятное дело, использовались исключительно процессоры Intel.

В целом, зима-весна 2006 года стала настоящим раем для тех, кто собирался приобрести новый компьютер. Для Intel дело действительно запахло жареным, и началось практически ежемесячное снижение цен на двуядерные Pentium D, а также Celeron’ы. AMD при всём этом тоже почувствовала, что в кои-то веки догнала своего извечного конкурента, поэтому цены на Athlon’ы, Sempron’ы и Turion’ы тоже стали очень быстро падать.

Так бы всё и продолжалось, однако ещё в марте на Intel Developer Forum в руки обозревателей попали первые тестовые образцы Core 2 Duo, тогда ещё известные просто как 65 нм процессоры с кодовым названием Conroe. Первые тесты показали полное и безоговорочное превосходство новой архитектуры Intel как над своими предыдущими разработками, так и над топ-моделями процессоров AMD. Как и заявлялось ранее, в среднем наблюдался как минимум 20% прирост производительности, а в отдельных тестах — до 50%! По словам инженеров Intel, в основе такого успеха лежит то, что в новой архитектуре конвейер использует всего лишь 14 стадий по сравнению с 31 у процессоров Pentium 4 (D). С другой стороны, с трёх до четырёх увеличилось количество инструкций, которые могло выполнять ядро процессора за один такт. И последним из самых значительных нововведений Conroe стал совместный кэш второго уровня, который динамически распределялся между двумя ядрами. В такой схеме получается, что даже при выполнении приложения, абсолютно никак не оптимизированного под многоядерность, всё равно можно получить заметный прирост производительности только за счёт того, что ядро Conroe не ограничится «своей» двухмегабайтной половиной кэша, а станет использовать все 4 Мб.

Тем не менее, несмотря на отличные показатели тестовых версий Core 2 Duo, до начала продаж оставалось ещё несколько месяцев, и у AMD оказался небольшой запас времени, чтобы подготовить достойный ответ.

А в это же время практически вся полупроводниковая индустрия (производители не только процессоров, но и памяти) билась над проблемой физического предела существовавшей на тот момент технологии оптической литографии. Пока большая часть компаний использовала 90 нм техпроцесс, а Intel ускоренными темпами подготавливала 65 нм фабрики для запуска Core 2 Duo, специалисты в один голос твердили о том, что 32 нм, до которых осталось не так уж и далеко, станут границей, через которую на старой технологии не перешагнуть. Единственным логичным вариантом до определённого времени казался переход на принципиально новые способы получения микроструктур, однако в марте компания IBM продемонстрировала результаты работы своих учёных, которые при помощи оптической литографии получили структуру менее 32 нм.

Что ж, на данный момент только Intel имеет детально прописанный «роадмап», в котором запланирован переход на 32 нм техпроцесс, однако работы в этом направлении ещё ведутся и окончательно не известно, останется ли оптическая литография «в строю». Остальные компаниям ещё предстоит освоить 45 нм техпроцесс.

AMD в период между анонсом и запуском Core 2 Duo выпустила пару Athlon’ов на ядре Windsor с контроллерами DDR2, рассчитанных на разъём AM2, и заметно снизила цены на свои процессоры (в очередной раз). Остальные эпохальные свершения были отложены на начало 2007 года. В их число, в частности, входит выпуск процессоров К8L на 65 нм техпроцессе, а также появление альтернативной платформы для энтузиастов — 4х4. Альтернативной, конечно же, в сравнении с четырёхъядерными Core 2 Quad.

Intel тоже не проявляла особой спешки и «напоследок» перед выходом Core 2 Duo запустила Pentium Extreme Edition 965, который отличался от 955-й модели в первую очередь 65 нм техпроцессом. Это моментально позволило поднять рабочую частоту ядра и, соответственно, производительность.

И вот в июле стартовал долгожданный Core 2 Duo. Предварительные тесты и прогнозы аналитиков оказались верными. Вдобавок изрядно обруганная Intel учла все недоработки первого поколения процессоров Core, поэтому новичок был встречен с большим энтузиазмом. По большому счёту, у него не было ни одного недостатка, который был бы достоин внимания. Старая проблема оптимизации приложений под многопоточность — не в счёт, она так же актуальна и для двухъядерников от AMD, и для более ранних Pentium D. Однако на сей раз у Intel уже была запущена крупномасштабная программа «перевоспитания» программистов на новый лад.

Честно говоря, о Core 2 Duo больше писать смысла нет. Эти процессоры обеспечили уверенный рост акций Intel до сегодняшнего дня и в отсутствие новинок от AMD остаются единственным разумным выбором в верхнем секторе рынка процессоров, а также успешно осваивают средний сектор, постепенно заменяя устаревшие процессоры с архитектурой Net-Burst.

Ну, а последним событием, которое окончательно развеяло сомнения у тех, кто не верил в светлое будущее Intel, стал досрочный выход четырёхъядерника Core 2 Extreme (ранее он планировался на начало 2007 года). Конечно, несмотря на фактически двукратное превосходство в производительности над лучшими на данный момент Athlon 64 X2 и FX-64, Core 2 Extreme (4) вряд ли будет иметь большой успех на рынке. Цена, знаете ли, кусается… Зато с выходом этого процессора не остаётся никаких сомнений в качествах грядущего Core 2 Quad, который будет стоить чуть ли не вдвое дешевле. И, между прочим, должен будет без проблем разгоняться до частот своего старшего собрата хотя бы благодаря разблокированному множителю. Да, Intel наконец осознала пагубность установки преград на пути оверклокеров — всё-таки народ за то и полюбил процессоры Athlon, что при невысокой цене они отлично гнались (в том числе и с помощью повышения множителя). Собственно, за то же любили и первые Celeron’ы, особенно 333-й, если помните.

Немаловажный факт: Intel, которая не просто идёт в ногу с прогрессом, а скорее постоянно пытается «тащить» его за собой, в 2006 году отказывается от использования параллельных интерфейсов ATA в своих материнских платах в пользу SATA. В разряд стандарта переходит поддержка onboard-контроллеров RAID. Также в чипсетах этой компании вместо устаревшего кодека АС’97 появляется свежий High Definition Audio, что можно только приветствовать. Тем, кто желает продолжать пользоваться старыми винчестерами и экономить даже на встроенном звуке, остаётся обратить свои взоры на чипсеты других производителей — в частности, ATI на тот момент ещё не числилась в «главных врагах» и её разработки считались весьма достойной альтернативой «родным» материнским платам от самой Intel. Впрочем, о судьбе ATI мы вспомним ещё не раз.

В то же время VIA Technologies в конце февраля отвечает на шаг Intel выпуском звукового кодека Vinyl, который также поддерживает стандарты High Definition Audio. В частности, он без проблем справляется с воспроизведением 24-битных записей в формате PCM. Ну и — куда же без этого? — поддерживает новомодные функции энергосбережения.

Ещё одним немаловажным нововведением от Intel стали планы по замене традиционного BIOS на extensible firmware interface (EFI). Если вкратце, то это уже сама по себе мини-ОС, которая даёт гораздо большую гибкость в настройке системы и избавит нас от постоянных опасений по поводу конфликтов прерываний при установке нового оборудования. К тому же в память EFI можно записывать небольшие программы, которые смогут работать уже на самом начальном этапе загрузки компьютера. Кстати, подобным загрузчиком оснащаются все компьютеры марки Apple.

Оперативная память

За прошедший год новых заметных форматов оперативной памяти не появлялось. В компьютерах всё ещё используется DDR, но набирает обороты и DDR2. К середине года оперативка успешно добирается до отметки 800 МГц, причём это уже не оверклокерская, а самая что ни на есть бюджетная память. Впрочем, отдельные образцы сверхбыстрой DDR2 были и в начале года — вплоть до 1000 МГц, однако производители «разрывались» между использованием своих 300 мм фабрик для производства DDR2 и флэш-памяти NAND. Из-за этого цены на DDR2 в начале года неуклонно росли. Впрочем, рос и спрос на эту память.

Самым интересным занятием было наблюдение за «вечно обиженной» компанией Rambus, которая в течение 2006 года судилась со всеми, с кем только могла. Под горячую руку попали Hynix, Samsung, Nanya и Micron, которые якобы нарушали некоторые патенты Rambus при производстве своих модулей DDR2, GDDR2 и GDDR3. Впрочем, Rambus’u действительно можно только посочувствовать. Эта компания в своё время (на заре эпохи Pentium 4) «пролетела» со своей, надо сказать, достаточно интересной памятью, которая работала на недостижимых в то время частотах (до 800 МГц без DDR!), и едва не утащила за собой сам процессор Pentium 4. Intel умудрилась связать себя контрактом с Rambus, по которому в чипсетах под новый процессор можно было использовать только такой тип памяти. В итоге ситуацию спасли сторонние разработчики чипсетов, которые не были связаны ничем и спокойно реализовывали поддержку DDR. Тем не менее, Rambus не сдаётся и активно ведёт разработки. Последние варианты сверхпроизводительной памяти XDR DRAM, несмотря на свои великолепные показатели производительности, пока не могут добиться признания. Похоже, что производители памяти просто опасаются связываться с Rambus после всех перипетий с Intel и прочими патентными судами.

Однако AMD, похоже, не боится тяжёлой кармы Rambus’а и в начале года эти компании заключили лицензионное соглашение сроком на пять лет. Очевидно, помощь Rambus нужна в связи с тем, что по идеологии AMD контроллеры памяти встраиваются прямо на кристалл процессора. А это, прямо скажем, не самая тривиальная задача. Особенно в том, что касается последних вариантов DDR2 и DDR3.

В это время на поприще создания памяти для видеокарт разные компании наперегонки внедряют 80 нм техпроцесс и благодаря этому ускоряют работу своих GDDR4 чипов. Пионерами стали Samsung и Hynix; правда, у первой компании получилось немного лучше — её чипы работают на более высоких частотах.

Видео

Если окинуть пристальным оком события прошедшего года на рынке видеоадаптеров, то можно смело говорить о том, что год удался. За это время ATI успела представить карточки Radeon X1 и анонсировать революционный графический чип R600 с унифицированными конвейерами, полностью соответствующими требованиям DirectX 10. С этим API компания Microsoft также собирается произвести революцию в РС-гейминге благодаря объёмным полигонам, четвёртым шейдерам, а также «разделению» ядра DirectX на базовое (встроенное в ядро самой ОС Windows Vista) и расширенное. Всё это (опять-таки, если верить PR-спецам компании Microsoft) должно подарить нам не только кардинально улучшенное качество 3D объектов, но и шестикратный прирост производительности. Что касается nVidia, то после выхода довольно удачного чипа G71 довольно надолго воцарилось многозначительное молчание. В свете анонса R600 Интернет полнился слухами о том, что G80 не будет поддерживать унифицированную архитектуру DirectX 10, а компания nVidia до последнего момента отмалчивалась. Впрочем, как обычно. Но под конец года на нас прямо-таки обрушилась лавина событий, значительно повлиявших на расстановку сил на рынке графических адаптеров. И таки да, nVidia показала, что делает больше, чем говорит.

Впрочем, начался год всё-таки с появления Radeon X1900, построенного на чипе R580. В штатном режиме при 256-разрядной внешней шине памяти эти видеочипы работали на частоте 625 МГц (техпроцесс — 90 нм), а память в референсном варианте поддерживала частоту до 1.45 ГГц (хотя, конечно же, всё это успешно разгонялось). Каждый R580 имел по 16 текстурных процессоров и 48 пиксельных конвейеров (Shader Model 3.0). При этом, если сравнивать с конкурентным G70, то производительность R580 была тем больше, чем сложнее были эффекты, используемые при построении тестовых сцен. Грубо говоря, Х1900 оказался гораздо лучше подготовлен для использования в новых играх, чем GeForce 7xxx, причём даже выход G71 не исправил эту ситуацию. Секрет, очевидно, был в том количестве пиксельных блоков, которыми мог похвастать R580. В то же время текстурными блоками канадцы немного пренебрегли, за что их, в принципе, винить не стоит. В конце концов, никто не собирается покупать карту такого класса для игры в Quake 3 — теперь важна скорость обработки шейдеров, причём как минимум Model 2.0. Впрочем, по части Shader Model 3.0 ATI всё ещё немного отставала. Но для многих показательным моментом стало то, что Radeon X1900 стал первой видеокартой, которая перешагнула психологический барьер в 10000 «попугаев» по тесту 3DMark’05.

Мало кто заметил, но в марте 2006 года ATI поглотила своего (с натяжкой) конкурента — компанию XGI. В своё время в её состав вошли хорошо знакомые бывалым пользователям ПК игроки графического рынка Trident Microsystems и Silicon Integrated Graphics (SIS). На 2005 год компания строила радужные планы, намереваясь потеснить ATI и nVidia на рынке видеоакселераторов, однако старт был выбран крайне неудачный — с бюджетного сектора. Уже в 2005 году наблюдалось заметное падение продаж видеокарт начального уровня, поскольку разница между ними и интегрированными решениями (в частности, производства Intel) всё меньше и меньше соответствовала разнице в цене.

Итак, ATI поглотила XGI, а вы можете ехидно поулыбаться, поскольку сами знаете, что произошло с самой канадской компанией спустя полгода. Но об этом чуть позже.

В марте nVidia ответила на Radeon X1900 видеокартами на процессоре G71. Тестеры уже давно заметили, что ATI в последнее время всё тяжелее и тяжелее переходит на новые техпроцессы, и даже 90 нм не сделали Х1900 менее прожорливым и «горячим», чем того следовало ожидать от нового поколения графических процессоров. В то же время GeForce 7900 (GTX и работающий на слегка заниженных частотах GT) отличился низким тепловыделением, которое позволило использовать гораздо более тихие системы охлаждения, чем на Х1900. Основным отличием 7900 от канадского конкурента стала «конвейерная формула»: 24 вершинных процессора и 24 шейдерных по сравнению с 16 вершинными и аж 48 пиксельными у ATI. Ситуация получилась крайне неоднозначная, поскольку, несмотря на явное превосходство в скорости обработки сложных шейдерных эффектов, Х1900 страдал от недостатка вычислительной мощности для просчёта непосредственно геометрии 3D сцен. А если учесть, что на момент выхода GeForce 7900 на рынке присутствовало не так уж и много игр, поддерживающих полный набор функций Shader Model 3.0, можно сказать, что эти карты выглядели более сбалансированными. Но усреднённые результаты тестов всё равно привели к примерному паритету ATI и nVidia.

В принципе, если учесть более низкое энергопотребление 7900, можно было бы сказать, что победа осталась за nVidia, однако Х1900 был выпущен раньше, поэтому цены на него уже начали падать, и в итоге вся борьба в который уже раз свелась к сугубо субъективным предпочтениям отдельных покупателей.

Но наиболее успешными было суждено стать другим продуктам nVidia — GeForce 7600 GT и его младшему брату — 7600 GS. Конечно, процессор G73 со своими пятью вершинными и 12 пиксельными вычислительными блоками никак не смог бы угнаться за Х1900 и 7900, однако в своём ценовом сегменте (заметим, наиболее активном) оказался не только самым быстрым, но и самым тихим. На многие карты этого класса вместо референсного кулера устанавливали бесшумные радиаторы пассивного охлаждения, да и качество 2D картинки, на которое nVidia ранее не обращала достаточного внимания, оказалось очень высоким. В подтверждение этого можно сказать, что компания Apple, которая до сих пор использовала исключительно видеоадаптеры с чипами от ATI, ввела в свою линейку компьютеров конфигурации с GeForce 7300 и 7600. А это, знаете ли, кое-что значит.

В конце концов энергопотребление G71 и G73 оказалось настолько низким, что производители ноутбуков получили возможность создать SLI решение на базе мобильных модификаций этих процессоров. И, конечно же, не стали пренебрегать такой возможностью. Туда же запишем и монструозный Quad-SLI на базе двух GeForce 7950GX2 (по сути — сдвоенные 7900), о котором вы могли прочитать в одном из недавних номеров МК. Представить себе систему из четырёх Х1900, даже работающих на заниженных частотах, было довольно трудно. Референсные (а других, вроде бы, и не выпускалось) Radeon X1900 занимали сразу два PCI слота из-за массивной системы охлаждения. В общем, если на hi-end рынке весной установилось некоторое равновесие, то в среднем секторе на первом месте практически безраздельно расположился GeForce 7600.

ATI, конечно же, не могла долго оставаться в стороне, поскольку Х1600 выглядел рядом с 7600 откровенно слабо. Ответом стал выпуск Radeon X1800 GTO, который продолжил линейку Х1800 на более высоких частотах. nVidia в свою очередь тоже принялась расширять ассортимент… В общем, всё как обычно. Было.

Пока не грянула новость о событии, которое повлияло практически на весь IT-рынок. Конечно же, я говорю о «слиянии» AMD и ATI, о котором стало официально известно в июле. Слово «слияние» взято в кавычки неспроста — дело в том, что акционеры ATI по условиям сделки теряют контроль над дальнейшей деятельностью компании и получают свою полагающуюся компенсацию (примерно 4.2 млрд. долларов). Впрочем, на начальном этапе было заявлено, что результатом сделки станет всего лишь более плотное сотрудничество на поприще создания новых чипсетов, а также разработка революционного процессора, сочетающего в себе функции CPU и GPU (этот проект получил название Fusion). Остальные планы ATI и AMD оставались неизменными по крайней мере на полгода (то есть до конца 2006-го). Хотя позже стало заметно, что ATI постепенно ослабляет поддержку чипсетов, рассчитанных на процессоры Intel. Чего ж ещё было ожидать?

Реакция остальных «заинтересованных лиц», по крайней мере внешне, оказалась вполне сдержанной. Intel не делала вообще никаких официальных заявлений, и только в кулуарах представители процессорного гиганта позволяли себе колкие замечания по поводу того, насколько помогут 5 или 6 миллиардов, потраченные на покупку ATI попыткам AMD догнать неожиданно резвый Core 2 Duo. Это при том, что сама Intel инвестировала почти 10 миллиардов в подготовку новых фабрик, работающих на 65 и 45 нм техпроцессах.

Кстати, если кто не знает, то сообщу, что на данный момент лидером рынка видеочипов является… Intel. Конечно же, это относится к встроенным решениям, которые успешно вытеснили видеокарты начального уровня. К тому же стоит учесть, что технология Centrino, ставящая во главу угла энергоэффективность, подразумевает использование именно «родных» графических чипов. Так что подавляющее большинство ноутбуков, основанных на платформе Intel, оборудованы именно GMA. В этом свете «угроза» появления гибридного процессора абсолютно не пугает Intel — она и так имеет платформу, объединяющую её основные разработки в одно целое.

После слияния с AMD ATI продолжила активно заполнять все мыслимые и немыслимые ниши рынка за счёт различных модификаций существовавших GPU. В частности, появились модификации Radeon X1950 с поддержкой GDDR4, а также первые Radeon’ы, произведённые по 80 нм техпроцессу (Х1300).

Этот обзор был бы не полным, если бы я не упомянул о де-факто первом видеоадаптере, который полностью поддерживает API DirectX 10, а значит, должен обеспечить тот самый шестикратный прирост производительности (без учёта выросшей частоты и количества конвейеров), который нам так обещал Билл Гейтс. Конечно, вышедший ранее Intel GMA тоже имеет унифицированную архитектуру, но её полная поддержка (равно как и Shader Model 4) должны быть активированы только в новой версии драйверов, над которыми активно работают спецы Intel. Не будем забывать и о том, что GMA — всё-таки встраиваемый акселератор, поэтому его предназначение отнюдь не в том, чтобы показывать высокий fps в современных играх. Ему всего-то и нужно, что осилить красоты нового скина Windows Aero.

Что касается GeForce 8800 (основан на G80), то кроме унифицированной структуры он отметился рекордной частотой памяти GDDR4 (1.8 ГГц), а также не менее рекордной шиной памяти (384 бита). Более подробный обзор этой видеокарты следует ждать только после выхода Windows Vista и её DirectX 10, однако уже сейчас можно сказать, что даже на старом API новичок показал себя настоящим зверем и среди существующих видеокарт ему просто нет равных. Сможет ли R600 восстановить равновесие или даже вырваться вперёд — увидим только в этом, 2007 году. Впрочем, использование мощностей и технологий AMD, которые явно облегчают переход на новые техпроцессы, а также опыт тесного сотрудничества с Microsoft при создании Xbox 360 дают повод надеяться на достойный ответ от канадских умельцев.

НЖМД

Трудно сказать, относится ли эта информация к разделу жёстких дисков напрямую, однако самым заметным событием 2006 года я бы назвал появление 32 Гб портативного накопителя от Samsung, основанного на флэш-памяти. О том, что старая добрая механика доживает последние дни, говорят уже давно, и единственной видимой альтернативой выглядел именно флэш. Но тут же вставал вопрос цены, которая могла отпугнуть даже очень состоятельных клиентов. Тем не менее, компания Samsung, которая является одним из крупнейших производителей флэш-памяти, первой решилась на создание замены традиционному винчестеру. Цена действительно оказалась впечатляющей — более 900 долларов за 32 Гб, однако Samsung разумно решила не выпускать это устройство в самостоятельное плавание, а представила его в составе тонкого ноутбука. Именно в мобильных системах и можно наиболее ярко проявить такие преимущества флэш-винчестера, как низкое энергопотребление, бесшумность, компактность… Ну и про скорость тоже не стоит забывать. Время доступа по сравнению с традиционными НЖМД снизилось практически вдвое, и ведь это ещё не предел флэш-технологии!

Собственно, таким пока что и выглядит будущее накопителей. Если не появится никаких разработок, превосходящих флэш как по возможностям, так и по цене, которая за 2006 год ощутимо снизилась.

Кстати, что интересно, с появлением большого количества относительно недорогих корпусов с прозрачными стенками (или «окошками») компьютерный моддинг смог «забраться» внутрь системника. В частности, компания Western Digital в начале 2006 года выпустила оригинальную модель Raptor X, который, кроме выдающихся характеристик производительности, присущих всем моделям линейки Raptor, имел прозрачное окошко, через которое было видно работу магнитных пластин и считывающих головок.

Ну а если по делу, то ничего особенно интересного в этом сегменте рынка не происходило. Постепенно внедряется перпендикулярная запись, которая позволяет увеличить скорость чтения и записи, а также плотность «укладки» данных без вмешательства в механические компоненты винчестера. Появляются новые «перпендикулярки» для ноутбуков и мобильных устройств. Расширяется рынок ультрамобильных жёстких дисков, предназначенных для использования в mp3-плеерах и мобильных телефонах, но и тут на пятки наступает неумолимо дешевеющий flash.

Оптические носители

Не вынести оптику в отдельный раздел в этом году было бы непростительно. По сути, в 2006-м произошла очередная смена поколений в этой сфере компьютерных технологий, которая определила стандарты как минимум на 5–6 лет вперёд. Так было с появлением CD-ROM, которые в итоге вытеснили флоппи-дисководы, так произошло с DVD. И несмотря на то, что устройства предыдущих поколений всё ещё остаются в системниках, основная масса софта и медиа-контента всё-таки выпускается на новых носителях. Те же дискеты сейчас могут использовать разве что фигуристые секретарши, хотя если речь зашла о переносе небольших файлов с максимальным удобством, то нельзя забывать и о «флэшках». Впрочем, это немного другая сторона вопроса, а в этом разделе ограничимся оптикой.

Подготовкой HD-DVD и Blu-Ray к запуску соответствующие консорциумы очень плотно занимались и в 2005-м и даже в 2004-м годах. Особенно хорошо этот процесс можно было отслеживать по судьбе консоли нового поколения от Sony — Play Station 3. Было заявлено, что консоль будет оборудована штатным Blu-Ray приводом, и ни для кого не секрет, что многочисленные переносы начала продаж по большей части связаны именно с проблемной оптикой. Впрочем, с механикой к началу 2006 года вроде как-то разобрались, а сами диски стали более-менее надёжными после того, как в концерн по разработке Blu-Ray влилась компания TDK со своей фирменной технологией защиты поверхности дисков. При этом в начале 2006 года ещё до начала продаж приводов Blu-Ray TDK уже запустила производство BD-R и BD-RE диски. А это означало, что основные проблемы решены и приводы Blu-Ray таки появятся в самое ближайшее время. Оставшиеся проблемы носили скорее организационный характер. Компании, занятые в разработке новых форматов оптических накопителей (а особенно — обладатели прав на видеопродукцию), долго не могли разобраться с окончательной спецификацией AACS — системы защиты цифрового контента. Окончательное утверждение этого стандарта состоялось только в феврале, несмотря на то, что разработка аппаратных решений велась уже несколько лет. В частности, поддержка видеосигналов высокой чёткости была реализована ещё в чипах Radeon 8500 и GeForce FX, однако из-за непонятного механизма лицензирования конечные продукты (собственно видеокарты) такой поддержки были лишены. При этом простая перепрошивка BIOS видеокарты не помогла бы, поскольку для полноценной реализации необходим специальный отдельный чип, в котором должен храниться уникальный ключ устройства. Естественно, не имея окончательного решения по AACS, производители видеокарт не включали этот чип в конструкцию своих девайсов.

Впрочем, с устройствами, способными записывать новые диски, пришлось подождать до второй половины 2006 года — сперва были выпущены простые видеоплееры, затем пошла целая волна ноутбуков с читающими Blu-Ray приводами, и только под конец года у простых буржуев (а кто ещё сможет заплатить 1000 долларов за привод?) появилась возможность купить подобное устройство. Кстати, в самое ближайшее время мы планируем провести тест Blu-Ray привода от Samsung Electronics, а также (если уже начались поставки в Украину) аналогичного девайса от LG.

В общем, к началу 2006 года уже никаких сомнений не оставалось — и HD-DVD, и Blu-Ray будут запущены в самое ближайшее время, поэтому уже в январе самые крупные кинокомпании (Paramount, 20th Century Fox, Sony Pictures) начинают выкладывать списки фильмов, которые выйдут в новом формате с High Definition и прочими радостями. Плееры тоже не заставили себя долго ждать. Буквально через пару дней на выставке CES 2006 компания Samsung показала Blu-Ray проигрыватель BD-1000, а Toshiba — HD-A1, который поддерживал формат HD-DVD. Тогда же были заявлены приблизительные цены в 1000 и 500 долларов соответственно, и сегодня мы уже отчётливо видим, что такое же соотношение (1 к 2) осталось и спустя полгода после начала продаж. Примерно так же соотносятся и компьютерные приводы — хотя диски продаются по одной и той же цене.

Мониторы

По-хорошему в этой части нашего итогового обзора нужно было бы отдельно рассказать о CRT и TFT технологиях, однако традиционные кинескопы стремительно теряют популярность и производители мониторов уже давненько перестали заниматься развитием этой технологии. Впрочем, есть некоторые подвижки со стороны компании Canon, но об этом поговорим в другой раз.

Итак, можно констатировать тот факт, что в 2006 году TFT окончательно укрепились во всех секторах рынка, приблизившись по цене к CRT-мониторам настолько, насколько это вообще представляется возможным. В том, что касается технологических преимуществ и недостатков, тут можно высказывать претензии разве что к «честности» цветопередачи. Бюджетным моделям цветовой охват CRT пока что недоступен. Но, честно говоря, далеко не каждый заметит разницу между «урезанной» и «полной» цветопередачей. Прежде всего впечатляют яркость, контрастность, а также такая магическая цифра как время отклика. Дело дошло до того, что в начале года концерн LG Philips Displays объявил о банкротстве двух подразделений, занимавшихся разработками и производством электронно-лучевых мониторов и телевизоров. По словам представителей компании, жидкокристаллические устройства неожиданно быстро вышли на тот уровень, при котором их конкурентные качества переросли CRT. С другой стороны, компания ViewSonic не сдавалась и выпустила в начале года новый 19-дюймовый монитор, рассчитанный в первую очередь на активных геймеров, которые до сих пор недолюбливают ЖК-дисплеи. Но это уже скорее исключение из правила, которое не имело особого успеха на рынке из-за очень уж резкого падения цен на TFT мониторы.

Ну, а среди производителей TFT, как вы могли заметить, давно ведётся ожесточённая борьба, которая на самом деле уже переступила границы здравого смысла. Например, выпущенная в январе линейка мониторов ViewSonic имела время отклика всего в 1 миллисекунду. Признайтесь честно, насколько явно вы ощущаете разницу между мониторами с 4 мс и 2 мс задержкой?

Другой заметной тенденцией был неуклонный рост продаж мониторов широкого формата, а также появление огромного количества ноутбуков с экранами 16:10. Изначально этот формат, конечно же, был разработан для просмотра широкоформатного видео без «траурных полос», однако впоследствии многие пользователи заметили, что на широком экране удобнее работать с большими таблицами, базами данных, графическими редакторами (остаётся больше места для панелей инструментов), да и просто забавно, когда можно разместить на экране одновременно две открытые веб-страницы.

Кстати, раз уж затронули ноутбуки, то нужно отметить тенденцию к переходу с матового покрытия экранов на глянцевое, позволяющее добиваться большей чёткости, яркости и контрастности. Хотя, с другой стороны, глянцевое покрытие гораздо заметнее бликует.

Если говорить о перспективах, то они выглядят вполне радужно. CRT фактически ушли в прошлое, кристаллы практически ничем не отличаются по качеству картинки, да и по цене достаточно близки к «старичкам». Однако ожидать особого падения цен не стоит, поскольку производители панелей уже достаточно хорошо освоили новую технологию (об этом говорит окончательный отказ большинства компаний от «допустимых» 2–3 битых пикселей). Особых резервов для снижения цен просто не остаётся.

Впрочем, посмотрим, насколько жизнеспособной окажется уже упомянутая технология, над которой работают Canon и Toshiba. Анонсы, прямо скажем, впечатляют.

Сети

Пожалуй, самым заметным событием в том, что касается сетевого оборудования, в 2006 году стало окончательное утверждение спецификаций WiMAX (кто присутствовал на презентации этой технологии на последнем киевском Intel Developer Forum, должен помнить, какое количество спецификаций успели утвердить, отменить и снова утвердить компании, которые входят в консорциум по разработке и продвижению этой технологии). В середине января компания STMicroelectronics запускает первые аппаратные станции WiMAX, и уже ко второй половине года у нас, на Украине, начинает работать первый провайдер такого типа связи (компания Alta-Net). Напомню, что WiMAX занимает некую промежуточную нишу между Wi-Fi и мобильным Интернетом благодаря большому радиусу покрытия вокруг базовой станции и довольно высокой скорости передачи данных. Впрочем, о повсеместном распространении этой технологии пока говорить рано, тут бы, по-хорошему, ещё к Wi-Fi привыкнуть… Тем не менее, радует, что наша страна перестаёт быть «околицей» IT-рынка.

Кстати, в связи с появлением всё большего и большего количества форматов связи, использующих радиоволны, начинают происходить на первый взгляд странные вещи. В частности, правительство США развернуло кампанию по свёртыванию аналогового телевещания до февраля 2009 года. Всем, кто ещё не имеет кабельного ТВ или спутниковой «тарелки», будет предоставлена субсидированная правительством возможность приобрести цифро-аналоговый конвертер для безболезненного перехода на цифровое вещание. Чем не угодили американцам общенациональные телеканалы? Да ничем, просто прибыль от продажи освободившихся частот операторам различных сетей в несколько раз выше затрат на переоборудование телевизоров граждан самой демократичной страны мира.

Периферия

На рынке компьютерной периферии самые интересные события в основном были связаны с принтерами, однако и они носили не столько революционный, сколько эволюционный характер. В первой половине года появился Samsung CLP-300 — самый компактный цветной лазерный принтер, рассчитанный на домашнее использование (как вариант — малый бизнес). Остальные производители до сих пор не торопятся с созданием настолько уж компактных устройств, однако факт остаётся фактом — лазерные принтеры стали доступными настолько, что начинают составлять серьёзную конкуренцию струйникам.

Ну, а сами струйные (Bubble-Jet) принтеры эволюционировали в двух направлениях. Компания Canon уменьшала объём капли чернил, пока не достигла значения в 1 пиколитр, что и является основной технологической «фишкой» последнего, третьего, поколения устройств под маркой PIXMA. В то же время Epson продолжает эксперименты с составом чернил, пока не приходит к концепции UltraChrome K3 — восьмицветному набору, в который входит не только простой чёрный, но ещё и две градации серого цвета. Уникальность этих чернил заключается даже не в том, что цветовой охват получаемых отпечатков превышает аналогичный показатель аж 12-цветных наборов Canon, а в их свойстве сохранять точность цветопередачи вне зависимости от того, в каких условиях освещения он находится. Впрочем, нужно отдать должное и Canon. Основная заслуга этой компании заключается в том, что впервые в истории цветной фотопечати цены на услуги фотолабов практически сравнялись с себестоимостью одного отпечатка в домашних условиях. Подробное изучение качества печати Canon PIXMA 3 вы могли прочитать в позапрошлом номере МК, просто напомню, что в фотолабах нередко печатают хуже. Хотя чисто технологически, конечно же, четырёхцветный струйник фотолабам уступает.

Из сугубо «местных» событий периферийного рынка хочется отметить приход в Украину компании Microlab, которая давно известна во всём мире благодаря высокому качеству и, соответственно, немаленьким ценам. Кстати, киевляне уже могли оценить достоинства этой акустики на ярмарке «Игроград», которую организовывал ИД «Мой Компьютер» в этом году.

Что ещё?

Пока ещё рынок аппаратных физических ускорителей представлен только одной Ageia PhysX, поэтому я и не стал выносить эти устройства в отдельный подраздел. Однако не упомянуть об этой безусловно интересной новинке тоже нельзя. Впрочем, аналитики утверждают, что Ageia опоздала, как минимум, на полгода, поскольку за это время nVidia и ATI успели анонсировать технологии, позволяющие перебрасывать расчет физики на их продукцию. Канадцы утверждают, что их GPU благодаря особенностям своей архитектуры больше других подходят для обработки сложных физических сцен. В то же время nVidia заручилась поддержкой небезызвестной компании Havoc, которая уже давно занимается развитием собственного программного физического движка.

Последним фактом, играющим против Ageia, является то, что производительность современных видеочипов составляет 300 и более гигафлоп, в то время как у PhysX — всего 25. Тут уж никакая оптимизация под физические расчеты не поможет… Кстати, для сравнения, топовые образцы Pentium и Athlon едва дотягивают до 10 гигафлоп. Прогнозы можете сделать сами.

Сюда же можно приписать анонс ускорителя AI под названием AIseek. Подробностей пока особых нет, только обещания поднять скорость обработки соответствующих команд и скриптов примерно в 100 раз по сравнению с существующими решениями, использующими мощности центральных процессоров. Впрочем, не удивлюсь, если и эту задачу конкуренты сумеют перепоручить видеокартам, а то и каким-нибудь Audigy, у которых тоже не самый слабый процессор.

Раз уж мы так много внимания уделяли продукции компании Apple, то нужно хоть пару слов сказать и об ещё одной интересной разработке, которая может заинтересовать поклонников миниатюрных и стильных компьютеров. Явно следуя идеологии mac mini, компания Shuttle представила на выставке CeBIT 2006 года barebone-систему XPC X100, построенную на базе процессора Core Duo. Аппарат получился всё равно немного крупнее своего «яблочного» собрата, однако несколько превзошёл его по функциональным возможностям. Процессор Core Duo T2400, 512 Мб памяти DDR2, набор портов USB, FireWire и встроенный Wi-Fi адаптер имеются и в mac mini, однако Shuttle добавила в этот список ещё и «отдельную» видеокарту ATI Mobility Radeon X1600, мультиформатный кард-ридер, выход S-Video и, что более важно, вместительный трёхдюймовый жёсткий диск SATA II. Напомню, что в mac mini используются «ноутбучные» винчестеры, которые изначально не могут тягаться с 3.5-дюймовыми собратьями в плане вместительности.

Впрочем, ещё в 2005 году компания AOpen попыталась как можно ближе подобраться не только к идеологии mac mini, но и к его дизайну вообще. В 2006 году на той же выставке CeBIT была представлена вторая ревизия AOpen MiniPC, построенного опять-таки на мобильной платформе Intel. Поскольку первая попытка была не слишком удачной (mac mini всё равно был компактнее, имел лучший функциональный набор, да и выглядел покрасивее), на второй раз AOpen применила DVD-привод со слотовой загрузкой, а также попыталась дать покупателю выбор, оставив вместо жёстко встроенного WiFi адаптера только miniPCI слот под него. Особого успеха этот компьютер так и не добился, но, согласитесь, тенденция к миниатюризации даже настольных систем в 2006 году была как никогда очевидна. Немаловажную роль в этом, конечно же, сыграла новая политика компании Intel, которая стала следить за энергопотреблением (а соответственно — и тепловыделением) своих процессоров не меньше, чем за их производительностью.

Возможно, это немного не наш профиль, но пройти мимо такого события тоже нельзя. В начале года одна из старейших компаний, занимавшихся производством фотоаппаратов, плёнки и прочих фоторадостей, объявила о том, что покидает этот рынок. Да, больше не будет камер и минилабов под лейблом Konica-Minolta. Все наработки по цифровым камерам и оптике в марте перешли к корпорации Sony (которая после этого, как сумасшедшая, начала выпускать полупрофессиональные компакты с мегазумами, чего за ней раньше никогда не водилось), а обслуживание и поддержка оставшихся в строю минилабов была отдана компании Noritsu Koki Ltd. Что ж, конкуренция на фоторынке становится всё плотнее и плотнее, поэтому рано или поздно кто-то должен был уйти. И очевидно, что это должна быть компания, которая не имеет своего развитого производства CCD матриц. Той же Sony подобная участь точно не грозит.

Ну, а чтобы всё-таки закончить на мажорной ноте, сообщаю приятную новость для всех пользователей ПК, читающих эти строки. В 2006 году после всех перипетий на политической арене и мировых скачков цен, повлиявших на стоимость изготовления печатной продукции, ситуация выровнялась и дела на рынке прессы пошли в гору. Да, и у нас в том числе.

И на этом позвольте проститься до следующего номера.







Расширенный поиск 
 

О проекте  Рекламодателям  Карта сайта  Контакт  Обратная связь 

© ИД "Мой компьютер"®, 1998-2004