Флорида не тільки має футбольну програму,але і нові технології. - все про комп'ютери

загрузка...

Університет штату Флорида, як і більшість державних шкіл в США з поверховий (американського) футболу програми, також має респектабельний відділу науково компанії, яка не боїться витратити трохи грошей на нову технологію, коли він приходить. І ось як семіноли закінчилися тим, що був одним з перших клієнтів вискочка сервер творця 3Leaf системи.


Ще в листопаді 2009 року, після майже шести років розробки, 3Leaf вивела на ринок в загальній пам'яті кластерної системи під назвою Dynamic Data Center Server лінії. Машини DDC Server прийняти Opteron основі БАГАТОПРОЦЕСОРНИХ серверів і доморощені чіпсет називається Voyager для вій разом і віртуалізації ядра, пам'яті і слота вводу / виводу в машинах в кластері.
При оснащенні власний шар віртуалізації 3Leaf, машина DDC можна зробити, щоб виглядати і відчувати себе як гігантський сервер SMP або регулярного кластера HPC на основі Message Passing Interface (MPI) кластера. Яка є однією з причин, чому DDC машини можуть бути в авангарді майбутніх систем, що дозволить користувачам перемикатися між слабкий зв'язок з пам'яттю неподіленої посилення зв'язку із загальною пам'яттю здійснюється через супер-швидкою мережі. Таким чином, по мірі зміни навантаження, обладнання не повинні. Він просто перенастроює себе на льоту «.
Департамент СНД у наукових обчислень має купу систем, які підтримують обробку, пов'язаних з молекулярної біофізики, еволюційної біології, моделювання мережі, і Монте-Карло алгоритм розвитку. Ключові системи високопродуктивних обчислень в університеті має 256 від Dell PowerEdge SC1435 блейд-серверів, які є двома роз'ємами Opteron основі блейд-серверів з кілька поколінь назад, плюс вісім Dell PowerEdge 6950 серверах, які діють в якості глави вузлів кластера. Вузлів в кластері склеєні разом з 288-порту 20 Гбіт / с комутатор InfiniBand від Cisco Systems, і два Cisco 6500 перемикачі посилання на 156 ТБ зберігання масиву з Panasas. Ця машина розрахована та відносно скромні 8 терафлоп, і це було ясно з-за якихось імпульс.
За словами Боба Куїнн, засновник, голова і головний директор за технологіями 3Leaf, СНД починає з відносно невеликий, з дванадцяти вузлів DDC Server, заснований на двопроцесорних системах створений на материнській платі і Whitebox сервера творець Super Micro (які створив спеціальну материнську плату з кімнатою для Voyager ASIC і яка також апаратного виробництва 3Leaf партнером). Система використовує 2,6 ГГц Opteron 8400 з процесорами Advanced Micro Devices (це шестиядерні чіпи відомо кодова назва «Istanbul»), і має 144 ядер в цілому. Десятків вузлів пов'язані 40 Гбіт / с комутатор InfiniBand і кластер має 576 ГБ загального когерентного пам'яті.
Вузли мають скромні 6 ТБ локального сховища. Це вікно, говорить Куїнн, продається за $ 206000. Припускаючи Стамбула зробити пік з чотирьох операцій з плаваючою комою за один такт, то ця машина повинна бути оцінена на рівні 1,5 терафлопс. За сучасними мірками, це не багато енергії номер хрускіт. Але штату Флорида не університеті штату Іллінойс, або, що отримання 1 петафлопс «Blue Waters» супер зроблені IBM, швидка машина в даний час встановлений в одному з університетів США. (Семіноли може бути в змозі здійснити навіть при боротьбі Иллини на футбольне поле, навіть якщо вони були перевершив за Compute Grid).
Список DDC Server можна масштабувати до 16 серверних вузлів в поділюваної пам'яті конфігурації, так що СНД має мало можливостей для зростання. І Куїнн говорить, що він буде в змозі підтримувати майбутніх дванадцяти основних «Маньї-Кур» Opteron 6100s в DDC серверів в третьому кварталі 2010 року.
Масштабованість не був топ-розуму для колишнього Радянського Союзу, у відповідності з Куїнн. Що мало для них, і, що важливо для компаній, які 3Leaf збирається переслідувати своїх поточних і майбутніх (і набагато більш масштабованої) машин, є гнучкість Server DDC системи програмного забезпечення, яке дозволяє вузлів розбити і заново розбитий в лічені секунди і налаштований з новими стеки програмного забезпечення протягом 30 секунд або близько того.
Протокол MPI може працювати поверх загальної пам'яті архітектури без будь-яких змін в код, теж, так що перемикання між загальною пам'яті і розподілених додатків така вже велика справа. Досі, клієнти повинні були вирішити, яким чином вони хотіли, щоб піти і купити машину, щоб зробити один або інший.
Хоча початкова Сервери DDC цікаві, це виглядає як системи буде набагато більш масштабованої з «Sandy Bridge» серверів Xeon, належних з Intel в 2011 році. Куїнн каже, що з середини 2008 року, 3Leaf працює з Intel щодо зміни Voyager ASIC, щоб він міг використовувати другого покоління QuickPath Interconnect корпорації Intel. DDC серверів за допомогою Sandy Bridge Xeons зможе підтримувати до 64 ТБ спільно використовуваної пам'яті, і «велику кількість серверних вузлів і стрижнів, згідно з Куїнн. Він не буде вказати, скільки вузлів. Але слова на вулиці, що вона буде масштабі до 32 вузлів.
Sandy Bridge, Xeon, спрямованих на двопроцесорних серверів, як очікується, принаймні вісім ядер, а можливо і більше в машинах, де терміки не настільки великою проблемою. Припустимо для Sandy Bridge-EP машини класу Intel може натиснути її до десятків ядер, які вони повинні зробити, щоб конкурувати з Маньї-Кур. Так одна машина 3Leaf в епоху Sandy Bridge повинні бути в змозі будинок 768 ядер за допомогою двох-гніздо коробки.
Як 64 ТБ буде туляться до 32 вузлів, запитаєте ви? Ну, Скоба себе, тому що терабайт на вузол буде нормально з сервера, що чіпи Intel і AMD готують для цього року. Так що подвоєння до 2 ТБ на вузол в рік це так, добре, от тільки закон Мура.

загрузка...
загрузка...