• 25 жовтня 1999 року - Coppermine
  • А далі
  • 4. Нейрокомпютер

  • Скачати 23.88 Kb.

    Перспективи розвитку комп'ютерної техніки




    Дата конвертації30.03.2017
    Розмір23.88 Kb.
    Типреферат

    Скачати 23.88 Kb.

    зміст

    Вступ ....................................................... ............... ..3

    1. Перспективи розвитку Intel ............................................. ... 4

    2. Оптичні комп'ютери ............................................. ... ... 6

    3. Квантовий комп'ютер ................................................... ... 8

    4. Нейрокомп'ютер ......................................................... ... 10

    Висновок ..................................................................... ..11

    Список літератури ............................................................ .12



































    Протягом життя всього лише одного покоління поряд з людиною виріс дивний новий вигляд: обчислювальні і подібні їм машини, з якими, як він виявив, йому доведеться ділити світ.

    Ні історія, ні філософія, ні здоровий глузд не можуть підказати нам, як ці машини вплинуть на наше життя в майбутньому, бо вони працюють зовсім не так, як машини, створені в еру промислової революції.

    Марвін Мінський

    вступ

    Комп'ютери з'явилися дуже давно в нашому світі, але тільки останнім часом їх почали так посилено використовувати в багатьох галузях людського життя. Ще десять років тому було рідкістю побачити який-небудь персональний комп'ютер - вони були, але були дуже дорогі, і навіть не кожна фірма могла мати у себе в офісі комп'ютер. А зараз? Тепер в кожному третьому будинку є комп'ютер, що уже глибоко ввійшов у життя самих мешканців будинку.

    Сама ідея створення штучного інтелекту з'явилася дуже давно, але тільки в 20 столітті її почали здійснювати. Спочатку з'явилися величезні комп'ютери, які були найчастіше розміром з величезний будинок. Використання таких машин, як ви самі розумієте, було не дуже зручно. Але що поробиш? Але світ не стояв на одному місці еволюційного розвитку - мінялися люди, змінювалася їх Навколишнє середовище, і разом з нею мінялися і самі технології, усе більше удосконалюючись. І комп'ютери ставали все менше і менше за своїми розмірами, поки не досягли сьогоднішніх розмірів.

    Сучасні обчислювальні машини представляють одне з найзначніших досягнень людської думки, вплив, якого на розвиток науково-технічного прогресу важко переоцінити. Області застосування ЕОМ безперервно розширюються. Цьому в значній мірі сприяє поширення персональних ЕОМ, і особливо мікроЕОМ.

    За час, що минув з 50-х років, цифрова ЕОМ перетворилася з "чарівного", але при цьому дорогого, унікального і перегрітого нагромадження електронних ламп, проводів і магнітних сердечників у невелику за розмірами машину - персональний комп'ютер - що складається з мільйонів крихітних напівпровідникових приладів, які упаковані в невеликі пластмасові коробочки.

    В результаті цього перетворення комп'ютери стали застосовуватися всюди. Вони керують роботою касових апаратів, стежать за роботою автомобільних систем запалювання, ведуть облік сімейного бюджету, або просто використовуються в якості розважального комплексу, але це тільки мала частина можливостей сучасних комп'ютерів. Більш того, бурхливий прогрес напівпровідникової мікроелектроніки, що представляє собою базу обчислювальної техніки, свідчить про те, що сьогоднішній рівень як самих комп'ютерів, так і областей їх застосування є лише слабкою подобою того, що настане в майбутньому. Поступово вивчення комп'ютерної техніки намагаються вводити в програми шкільного навчання як обов'язковий предмет, щоб дитина змогла вже з досить раннього віку знати будову і можливості комп'ютерів. А в самих школах (в основному на заході і в Америці) уже багато років комп'ютери застосовувалися для ведення навчальної документації, а тепер вони використовуються при вивченні багатьох навчальних дисциплін, які не мають прямого відношення до обчислювальної техніки.

    У цій роботі я постараюся зазирнути в найближчі плани Intel.

    27 вересня 1999 року - 133 МГц FSB

    Отже, з цього дня починається життя систем з частотою шини 133 МГц. Здавалося б, VIA вже давно випустив свій чіпсет Apollo Pro133, який має можливість використання цієї частоти, однак процесорів підтримують таку FSB не було, тому про повноцінних 133 МГц говорити не доводилося. В кінці вересня ситуація змінилася - на ринок випустили перший процесор, розрахований на цю частоту. Правда, на жаль, цим процесором поки не стане давно очікуваний Coppermine, що представляє собою Pentium III, зроблений на базі технології 0.18 мкм і має інтегрований в ядро ​​і працює на повній частоті процесора кеш другого рівня розміром 256 Кбайт. Помилки, допущені при проектуванні цього ядра, не дають можливості представити цей процесор в кінці вересня - його появою буде ознаменований останній квартал цього року.

    Але одними процесорами Intel, ясна річ, не обмежиться - в цьому випадку створилася б досить безглузда ситуація - новинки підтримувалися б тільки материнськими платами на чіпсетах VIA. В цей же день світло побачать і два нових чіпсета i820 і i810e. Вихід i820 - свого роду епохальна подія - цей чіпсет відкладався і перероблявся незліченну кількість разів - першої офіційною датою його виходу був червень цього року. Але, нарешті розробники і потенційні споживачі прийшли до якогось ніякому угодою, що і дозволить вивести i820 на ринок.

    Найбільшим плюсом, і найбільшим мінусом i820 є підтримуваний ним абсолютно новий для PC тип пам'яті - Direct Rambus DRAM. Загалом, саме сумнівне ланка - перші материнські плати на чіпсеті i820 вимагатимуть від користувача повністю змінити використовувану пам'ять, з модулів DIMM перейти на RIMM. Що, в поєднанні з їх дорожнечею і чималими обсягами пам'яті, необхідними сьогоднішніми додатками, виллється в копієчку, і навряд чи викличе масовий ентузіазм.

    25 жовтня 1999 року - Coppermine

    Технологію 0.18 мкм - в життя! Цей девіз однозначно описує всі події, які відбулися 25 жовтня. У цей день розпочато масові продажі Pentium III-процесорів, випущених за новою технологією і начинені новим ядром - Coppermine. Наявність в ньому 256-кілобайтний вбудованого кеша другого рівня, що працює на частоті ядра і подібного до того, що ми маємо сьогодні в Celeron, гарантує нове збільшення продуктивності.

    А далі?

    Що буде потім, знаючи гнучкість найулюбленішою компанії, точно сказати вже досить важко. Однак деякі загальні тенденції можна описати.

    Що стосується процесорів, то крім подальшого нарощування швидкостей, нас чекатиме і ще одна дитина з сімейки Coppermine. Це новий Celeron, зроблений на цьому ядрі, який був запущений десь в районі першого кварталу 2000 року. Головні відмінності від існуючих Celeron будуть ховатися в підтримці частоти системної шини 100 МГц і довгоочікуваної підтримки набору интеловских SIMD-інструкцій SSE.

    Після цього якихось кардинальних подій з х86 процесорами від Intel не траплялося аж до 2001 року, коли світу було представлено нове процесорний ядро ​​- Willamette, що забезпечує безпроблемну роботу на частотах понад гігагерца, подолати який існуючі архітектури навряд чи зможуть. Willamette матиме L1-кеш об'ємом 256 Кбайт і L2-кеш як мінімум 1 Мбайт. При цьому даний CPU почне випускатися за технологією 0.18 мкм з наступним переходом на 0.13 мкм і мідну технологію, вводити яку на 0.18 мкм Intel, на відміну від AMD, вважає недоцільним.

    Друга цікавість, що чекають нас в тому ж другому кварталі - Timna. Це трохи нагадує Cyrix MediaGX, оскільки є Pentium III процесором c інтегрованим L2-кешем 128 Кбайт, графічним контролером і контролером пам'яті, що підтримує Direct Rambus DRAM. Timna, по ідеї, буде випускатися також у вигляді FC-PGA, що встановлюються в новий сокет - PGA370-S. Втім, і це поки тільки проект, силікону ще немає, тому все може змінитися.

    Чи не зупиниться на місці і напрямок Mainstream-чіпсетів. Вихід Camino2 відбудеться у другому-третьому кварталі 2000 року. Цей чіпсет, який представляє собою вдосконалений i820, буде спеціально оптимізуватися під Coppermine. До його складу крім усього іншого буде входити чотирьохпортовий контролер USB, контролер Ultra ATA / 100 (ще б знати, що це таке, багатоканальний AC97 кодек, інтегрований LAN-контролер і деякі інші можливості, які на той час давно вже з'являться в чіпсетах VIA. Загалом, нудьгувати не доведеться.

    2. Оптичні комп'ютери

    Розвиток обчислювальної техніки є постійно змінюють одне одного фізичні способи реалізації логічних алгоритмів - від механічних пристроїв (обчислювальна машина Беббіджа) до лампових (комп'ютери 40-50-х років Марк I і Марк II), потім до транзисторним і, нарешті, до інтегральних схем . І вже на рубежі XXI століття йдуть розмови про швидке досягнення меж застосування напівпровідникових технологій і появі обчислювальних пристроїв, що працюють на зовсім іншому принципі. Все це свідчить про те, що прогрес не стоїть на місці, і з плином часу вчені відкривають нові можливості створення обчислювальних систем, принципово відрізняються від широко застосовуваних комп'ютерів. Існує кілька можливих альтернатив заміни сучасних комп'ютерів, одна з яких - створення так званих оптичних комп'ютерів, носієм інформації в яких буде світловий потік.

    Проникнення оптичних методів в обчислювальну техніку ведеться за трьома основними напрямками. Перше базується на використанні аналогових інтерференційних оптичних обчислень для вирішення окремих спеціальних завдань, пов'язаних з необхідністю швидкого виконання інтегральних перетворень. Другий напрямок пов'язаний з використанням оптичних з'єднань для передачі сигналів на різних щаблях ієрархії елементів обчислювальної техніки, тобто створення чисто оптичних або гібридних (оптоелектронних) з'єднань замість звичайних, менш надійних, електричних з'єднань. При цьому в конструкції комп'ютера з'являються нові елементи - оптоелектронні перетворювачі електричних сигналів в оптичні і назад. Але найбільш перспективним напрямком розвитку оптичних обчислювальних пристроїв є створення комп'ютера, повністю складається з оптичних пристроїв обробки інформації. Цей напрямок інтенсивно розвивають з початку 80-х років провідні наукові центри (MTI, Sandia Laboratories і ін.) І основні компанії-виробники комп'ютерного обладнання (Intel, IBM).

    В основі роботи різних компонентів оптичного комп'ютера (трансфазатори-оптичні транзистори, тригери, осередки пам'яті, носії інформації) лежить явище оптичної бістабільності. Оптична бистабильность - це один із проявів взаємодії світла з речовиною в нелінійних системах зі зворотним зв'язком, при якому певної інтенсивності і поляризації падаючого на речовину випромінювання відповідають два (аналог 0 і 1 в напівпровідникових системах) можливих стаціонарних стану світлової хвилі, що пройшла через речовина, що відрізняються амплітудою і (або) параметрами поляризації. Причому попередній стан речовини однозначно визначає, яке з двох станів світлової хвилі реалізується на виході. Для більшого розуміння явище оптичної бістабільності можна порівняти зі звичайною петлею магнітного гистерезиса (ефект, який використовується в магнітних носіях інформації). Збільшення інтенсивності падаючого на речовину світлового променя до деякого значення I 1 призводить до різкого зростання інтенсивності минулого променя; на зворотному ж ході при зменшенні інтенсивності падаючого променя до деякого значення I 2 1 інтенсивність минулого променя залишається постійною, а потім різко падає.Таким чином, інтенсивності падаючого пучка I, значення якої знаходиться в межах петлі гистерезиса, відповідають два значення інтенсивності минулого пучка, що залежать від попереднього оптичного стану поглинає речовини.

    Весь набір повністю оптичних логічних пристроїв для синтезу більш складних блоків оптичних комп'ютерів реалізується на основі пасивних нелінійних резонаторів-інтерферометрів. Залежно від початкових умов (початкового положення піку пропускання і початкової інтенсивності оптичного випромінювання) в пасивному нелінійному резонаторі, нелінійний процес завершується встановленням одного з двох стійких станів пропускання падаючого випромінювання. А з декількох нелінійних резонаторів можна зібрати будь-який, більш складний логічний елемент (тригер).

    Елементи пам'яті оптичного комп'ютера є напівпровідникові нелінійні оптичні інтерферометри, в основному, створеними з арсеніду галію (GaAs). Мінімальний розмір оптичного елемента пам'яті визначається мінімально необхідною кількістю атомів, для якого стійко спостерігається оптична бистабильность. Це число складає ~ 1000 атомів, що відповідає 1-10 нанометрів.

    До теперішнього часу вже створені і оптимізовані окремі складові оптичних комп'ютерів - оптичні процесори, осередки пам'яті), однак до повного складання ще далеко. Основною проблемою, що стоїть перед вченими, є синхронізація роботи окремих елементів оптичного комп'ютера в єдину систему, оскільки вже існуючі елементи характеризуються різними параметрами робочої хвилі світлового випромінювання (інтенсивність, довжина хвилі), і зменшення його розміру. Якщо для конструювання оптичного комп'ютера використовувати вже розроблені компоненти, то звичайний PC мав би розміри легкового автомобіля. Однак застосування оптичного випромінювання в якості носія інформації має ряд потенційних переваг у порівнянні з електричними сигналами, а саме:

    1. світлові потоки, на відміну від електричних, можуть перетинатися один з одним;

    3. швидкість поширення світлового сигналу вище швидкості електричного;

    4. взаємодія світлових потоків з нелінійними середовищами розподілено по всій середовищі, що дає нові ступені свободи (в порівнянні з електронними системами) в організації зв'язку і створення паралельних архітектур.

    Взагалі, створення більшої кількості паралельних архітектур, в порівнянні з напівпровідниковими комп'ютерами, є основною перевагою оптичних комп'ютерів, воно дозволяє подолати обмеження по швидкодії і паралельної обробки інформації, властиві сучасним ЕОМ. Розвиток оптичних технологій все одно триватиме, оскільки отримані результати важливі не тільки для створення оптичних комп'ютерів, але також і для оптичних комунікацій і мережі Internet.

    3. Квантовий комп'ютер

    Створення якісно нових обчислювальних систем з більш високою продуктивністю і деякими характеристиками штучного інтелекту, наприклад з можливістю самонавчання, - дуже актуальна тема. Останні десять років такі розробки ведуться в багатьох напрямках - найбільш успішними і швидко розвиваються з них є квантові комп'ютери, нейрокомп'ютери і оптичні комп'ютери, оскільки сучасна елементна і технологічна база має все необхідне для їх створення. Хоча при цьому виникають певні проблеми. Але не будемо забігати вперед - всі перераховані види комп'ютерів і проблеми з їх розробкою детально описані в цій статті. Почнемо з передумов створення більш швидкісних, а значить, і більш високопродуктивних обчислювальних систем.

    Отже, що ж таке квантовий комп'ютер? Основний його будівельної одиницею є кубіт (qubit, Quantum Bit). Класичний біт має лише два стани - 0 і 1, тоді як станів кубіта значно більше. Для опису стану квантової системи було введено поняття хвильової функції, її значення представляється у вигляді вектора з великим числом значень. Існують хвильові функції, які називаються власними для будь-якої певної величини. Квантова система може перебувати в стані з хвильової функцією, яка дорівнює лінійної комбінації власних функцій, відповідних кожному з можливих значень (такий стан називається складним), т. Е. Фізично - ні в збудженому, ні в основному стані. Це означає, що кубіт в одну одиницю часу дорівнює і 0, і 1, тоді як класичний біт в ту ж одиницю часу дорівнює або 0, або 1. Як для класичних, так і для квантових комп'ютерів були введені елементарні логічні операції: диз'юнкція, кон'юнкція і квантове заперечення, за допомогою яких буде організована вся логіка квантового комп'ютера.

    Як працює квантовий комп'ютер? Відповідно до законів квантової механіки, енергія електрона, пов'язаного в атомі, не довільна. Вона може мати лише певний безперервний (дискретний) ряд значень Е 0, Е 1,... Е n званих рівнями енергії. Цей набір називають енергетичним спектром атома. Найнижчий рівень енергії Е0, при якому енергія атома найменша, називається основним. Решта рівні (Е 1, Е 2,... Е n) відповідають більш високій енергії атома і називаються збудженими. Випромінювання і поглинання атомом електромагнітної енергії відбувається окремими порціями - квантами, або фотонами. При поглинанні фотона енергія збільшується - він переходить "вгору" - з нижнього на верхній рівень, при випромінюванні фотона атом здійснює зворотний перехід вниз.

    Якщо атом в даний момент часу знаходиться в одному з порушених станів Е 2, то такий стан атома нестійка, навіть якщо на нього не впливають інші частинки. Через дуже короткий час атом перейде в один зі станів з меншою енергією, наприклад Е 1. Такий мимовільний (спонтанний) перехід з одного рівня на інший і супроводжує його спонтанне випромінювання настільки ж випадкові у часі, як радіоактивний розпад ядра атома. Передбачити точно момент переходу принципово неможливо - можна лише говорити про ймовірність того, що перехід відбудеться через таке-то час. Але атом може перейти з рівня Е 2 на Е 1 не спонтанно, а під дією електромагнітної хвилі, якщо тільки частота цієї хвилі досить близька до частоті переходу атома. Така резонансна хвиля як би "розхитує" електрон і прискорює його "падіння" на рівень з меншою енергією. Переходи, що відбуваються під дією зовнішнього електромагнітного поля, називаються вимушеними (або стимульований). При створенні квантового комп'ютера основна увага приділяється питанням управління кубитами за допомогою вимушеного випромінювання і недопущення спонтанного випромінювання, яке порушить роботу всієї квантової системи. Від розповіді про фізику відбуваються в квантовому комп'ютері процесів перейдемо до того, як ці властивості реалізуються в експериментальному зразку квантового комп'ютера.

    Для того щоб практично реалізувати квантовий комп'ютер, існують кілька важливих правил, які в 1996 р привів Дівіченцо (DP Divincenzo). Без їх виконання не може бути побудована жодна квантова система.

    1. Точно відоме число часток системи.

    2. Можливість приведення системи в точно відоме початковий стан.

    3. Високий ступінь ізоляції від зовнішнього середовища.

    4. Уміння змінювати стан системи відповідно до заданої послідовності елементарних перетворень.

    Виконання цих вимог цілком реально за допомогою існуючих квантових технологій.

    Знаючи всі можливості квантових комп'ютерів, можна припустити, що майбутнє обчислювальних систем вирішено, однак, незважаючи на всі плюси, які нам дають квантові комп'ютери, - це не зовсім так ...

    4. Нейрокомп'ютер


    Для вирішення деяких завдань потрібне створення ефективної системи штучного інтелекту, яка могла б обробляти інформацію, не витрачаючи багато обчислювальних ресурсів. І розробників "осінило": мозок і нервова система живих організмів дозволяють вирішувати завдання управління і ефективно обробляти сенсорну інформацію, а це величезний плюс для створюваних обчислювальних систем. Саме це стало причиною створення штучних обчислювальних систем на базі нейронних систем живого світу. Фахівці, добившись потрібних результатів в цій області, створять комп'ютер з великими можливостями.

    Створення комп'ютера на основі нейронних систем живого світу базується на теорії перцептронів, розробником якої був Розенблатт. Він запропонував поняття перцептрону - штучної нейронної мережі, яка може навчатися розпізнавання образів. Припустимо, що є деяка зенітно-ракетна установка, завдання якої - розпізнати мета і визначити найбільш небезпечну з них. Також є два літака ймовірного противника: штурмовик і бомбардувальник. Зенітно-ракетна установка, використовуючи оптичні засоби, фотографує літаки і відправляє отримані знімки на вхід нейронної мережі (при повністю сфотографованому літаку нейронна мережа швидко розпізнає його). Але якщо знімок вийшов погано, то саме тут використовуються основні властивості нейронної мережі, одне з яких - можливість до самонавчання. Наприклад, на знімку відсутня одне крило і хвостова частина літака. Через деякий (прийнятне) час нейронна мережа сама домальовує відсутні частини і визначає тип цього літака і подальші дії по відношенню до нього. З розпізнаних штурмовика і бомбардувальника оператор даної зенітно-ракетної установки вибере для знищення більш небезпечний літак.

    Перспективність створення комп'ютерів з теорії Розенблатта полягає в тому, що структури, які мають властивості мозку і нервової системи, мають ряд особливостей, які сильно допомагають при вирішенні складних завдань:

    1. Паралельність обробки інформації.

    2. Здатність до навчання.

    4. Висока надійність.

    5. Асоціативність.

    Нейрокомп'ютери - це абсолютно новий тип обчислювальної техніки, іноді їх називають біокомп'ютер. Нейрокомп'ютери можна будувати на базі нейрочипів, які функціонально орієнтовані на конкретний алгоритм, на вирішення конкретного завдання. Для вирішення завдань різного типу потрібно нейронна мережа різної топології (топологія - спеціальне розташування вершин, в даному випадку нейрочипів, і шляхи їх сполуки). Можлива емуляція нейрокомп'ютерів (моделювання) - як програмно на ПЕОМ та суперЕОМ, так і програмно-апаратно на цифрових супервелику інтегральних схемах.

    Штучна нейронна мережа побудована на нейроноподобних елементах - штучних нейронах і нейроноподобних зв'язках. Тут важливо зауважити, що один штучний нейрон може використовуватися в роботі декількох (приблизно схожих) алгоритмів обробки інформації в мережі, і кожен алгоритм здійснюється за допомогою певної кількості штучних нейронів.

    висновок

    Так на який же основі буде побудована обчислювальна система майбутнього? Спробуємо відповісти на це питання. У даній роботі розглядалися три види комп'ютерів: квантові комп'ютери, які побудовані на основі явищ, що виникають в квантовій фізиці і дають потужний обчислювальний агрегат при вирішенні задач складних обчислень; нейрокомп'ютери і оптичні комп'ютери, які побудовані на різній теоретичній базі, але схожі в тому, що і ті й інші займаються обробкою інформації. З вірогідністю відомо, що вже зараз існують системи обробки інформації, побудовані на об'єднанні оптичних і нейронних комп'ютерів, - це так звані нейроно-оптичні комп'ютери. Для того щоб створити потужну систему обробки інформації, довелося розробити гібридну систему, т. Е. Має властивості як оптичних, так і нейронних комп'ютерів. Можна припустити, що об'єднання квантових і нейроно-оптичних комп'ютерів дасть світу найпотужнішу гібридну обчислювальну систему. Таку систему від звичайної відрізнятимуть величезна продуктивність (за рахунок паралелізму) і можливість ефективної обробки та управління сенсорної інформацією. Але це лише припущення, яке ніякими фактичними доказами в нині не підкріплено. Але технологія створення обчислювальних систем не стоїть на місці, і в найближчому майбутньому на ринку можлива поява нових обчислювальних систем.

    Список літератури

    1.Глазер В. "световодного техніка" М. Енегроатоміздат 1995р.

    2. Оокосі Е. Оптоелектроніка і оптичний зв'язок. М .: Мир, 1998 р.

    3. Журнал PC Magazine (Russian Edition) N2 1991р.

    4. М. ГУК "Апаратні засоби IBM PC" Пітер Санкт-Петербург 1997р.



    Скачати 23.88 Kb.


    Перспективи розвитку комп'ютерної техніки

    Скачати 23.88 Kb.