GeoSELECT.ru



Программирование / Реферат: Архитектура современных суперЭВМ (Программирование)

Космонавтика
Уфология
Авиация
Административное право
Арбитражный процесс
Архитектура
Астрология
Астрономия
Аудит
Банковское дело
Безопасность жизнедеятельности
Биология
Биржевое дело
Ботаника
Бухгалтерский учет
Валютные отношения
Ветеринария
Военная кафедра
География
Геодезия
Геология
Геополитика
Государство и право
Гражданское право и процесс
Делопроизводство
Деньги и кредит
Естествознание
Журналистика
Зоология
Инвестиции
Иностранные языки
Информатика
Искусство и культура
Исторические личности
История
Кибернетика
Коммуникации и связь
Компьютеры
Косметология
Криминалистика
Криминология
Криптология
Кулинария
Культурология
Литература
Литература : зарубежная
Литература : русская
Логика
Логистика
Маркетинг
Масс-медиа и реклама
Математика
Международное публичное право
Международное частное право
Международные отношения
Менеджмент
Металлургия
Мифология
Москвоведение
Музыка
Муниципальное право
Налоги
Начертательная геометрия
Оккультизм
Педагогика
Полиграфия
Политология
Право
Предпринимательство
Программирование
Психология
Радиоэлектроника
Религия
Риторика
Сельское хозяйство
Социология
Спорт
Статистика
Страхование
Строительство
Схемотехника
Таможенная система
Теория государства и права
Теория организации
Теплотехника
Технология
Товароведение
Транспорт
Трудовое право
Туризм
Уголовное право и процесс
Управление
Физика
Физкультура
Философия
Финансы
Фотография
Химия
Хозяйственное право
Цифровые устройства
Экологическое право
   

Реферат: Архитектура современных суперЭВМ (Программирование)



МОСКОВСКИЙ ИНЖЕНЕРНО-ФИЗИЧЕСКИЙ
ИНСТИТУТ
(ТЕХНИЧЕСКИЙ УНИЕРСИТЕТ)



Студентки группы.



1998 г.

Архитектура современных суперЭВМ

Диалектическая спираль развития компьютерных технологий совершила
свой очередной виток - опять, как и десять лет назад, в соответстви и с
требованиями жизни, в моду входят суперкомпьютерные архитектуры.
Безусловно, это уже не те монстры, которые помнят ветераны - новые
технологии и требовательный рынок коммерческих применений существенно
изменили облик современного суперкомпьютера, Теперь это не огромные шкафы с
уникальной аппаратурой, вокруг которой колдуют шаманы от информатики, а
вполне эргономичные системы с унифицированным программным обеспечением,
совместимые со своими младшими собратьями.
Что такое суперЭВМ? Компьютеры с производительностью свыше 10 000
млн. теоретических операций в сек. (MTOPS), согласно определению
Госдепартамента США, считаются суперкомпьютерами.
Следует отметить и другие основные признаки, характеризующие суперЭВМ,
среди которых кроме высокой производительности:
• самый современный технологический уровень (например, GaAs-технология);
• специфические архитектурные решения, направленные на повышение быстродей-
ствия (например, наличие операций над векторами);
• цена, обычно свыше 1-2 млн. долл.
Вместе с тем, существуют компьютеры, имеющие все перечисленные выше
характеристики суперЭВМ, за исключением цены, которая для них составляет от
нескольких сотен до 2 млн. долларов. Речь идет о мини-суперЭВМ, обладающим
высокой производительностью, уступающей, однако, большим суперЭВМ. При этом
у минисуперкомпьютеров, как правило, заметно лучше соотношение
цена/производительность и существенно ниже эксплуатационные расходы:
система охлаждения, электропитания, требования к площади помещения и др. С
точки зрения архитектуры минисуперкомпьютеры не представляют собой
некоторое особенное направление, поэтому в дальнейшем они отдельно не
рассматриваются.

Сферы применения суперкомпьютеров

Для каких применений нужна столь дорогостоящая техника? Может
показаться, что с ростом производительности настольных ПК и рабочих
станций, а также серверов, сама потребность в суперЭВМ будет снижаться. Это
не так. С одной стороны, целый ряд приложений может теперь успешно
выполняться на рабочих станциях, но с другой стороны, время показало, что
устойчивой тенденцией является появление все новых приложений, для которых
необходимо использовать суперЭВМ.
Прежде всего следует указать на процесс проникновения суперЭВМ в
совершенно недоступную для них ранее коммерческую сферу. Речь идет не
только скажем, о графических приложениях для кино и телевидения, где
требуется все та же высокая производительность на операциях с плавающей
запятой, а прежде всего о задачах, предполагающих интенсивную (в том
числе,и оперативную) обработку транзакций для сверхбольших БД. В этот класс
задач можно отнести также системы поддержки принятия решений и организация
информационных складов. Конечно, можно сказать, что для работы с подобными
приложениями в первую очередь необходимы высокая производительность ввода-
вывода и быстродействие при выполнении целочисленных операций, а
компьютерные системы, наиболее оптимальные для таких приложений, например,
MPP-системы Himalaya компании Tandem, SMP-компьютеры SGI CHAL ENGE,
AlphaServer 8400 от DEC - это не совсем суперЭВМ. Но следует вспомнить, что
такие требования возникают, в частности, со стороны ряда приложений ядерной
физики, например, при обработке результатов экспериментов на ускорителях
элементарных частиц. А ведь ядерная физика - классическая область
применения суперЭВМ со дня их возникновения.
Как бы то ни было, наметилась явная тенденция к сближению понятий
"мэйнфрейм", "многопроцессорный сервер" и "суперЭВМ". Нелишне заметить, что
это происходит на фоне начавшегося во многих областях массированного
перехода к централизации и укрупнению в противоположность процессу
разукрупненияи децентрализации.
Традиционной сферой применения суперкомпьютеров всегда были научные
исследования: физика плазмы и статистическая механика, физика
конденсированных сред, молекулярная и атомная физика, теория элементарных
частиц, газовая динамика и теория турбулентности, астрофизика. В химии -
различные области вычислительной химии: квантовая химия (включая расчеты
электронной структуры для целей конструирования новых материалов, например,
катализаторов и сверхпроводников), молекулярная динамика, химическая
кинетика, теория поверхностных явлений и химия твердого
тела,конструирование лекарств. Естественно, что ряд областей применения
находится на стыках соответствующих наук, например, химии и биологии, и
перекрывается с техническими приложениями. Так, задачи метеорологии,
изучение атмосферных явлений и, в первую очередь, задача долгосрочного
прогноза погоды, для решения которой постоянно не хватает мощностей
современных суперЭВМ, тесно связаны с решением ряда перечисленных выше
проблем физики. Среди технических проблем, для решения которых используются
суперкомпьютеры, укажем на задачи аэрокосмической и автомобильной
промышленности, ядерной энергетики, предсказания и разработки месторождений
полезных ископаемых, нефтедобывающей и газовой промышленности (в том числе
проблемы эффективной эксплуатации месторождений, особенно трехмерные задачи
их исследования), и, наконец, конструирование новых микропроцессоров и
компьютеров, в первую очередь самих суперЭВМ.
Суперкомпьютеры традиционно применяются для военных целей. Кроме
очевидных задач разработки оружия массового уничтожения и конструирования
самолетов и ракет, можно упомянуть, например, конструирование бесшумных
подводных лодок и др. Самый знаменитый пример - это американская программа
СОИ. Уже упоминавшийся MPP-компьютер Министерства энергетики США будет
применяться для моделирования ядерного оружия, что позволит вообще отменить
ядерные испытания в этой стране.
Анализируя потенциальные потребности в суперЭВМ существующих сегодня
приложений, можно условно разбить их на два класса. К первому можно отнести
приложения, в которых известно, какой уровень производительности надо
достигнуть в каждом конкретном случае, например, долгосрочный прогноз
погоды. Ко второму можно отнести задачи, для которых характерен быстрый
рост вычислительных затрат с увеличением размера исследуемого объекта.
Например, в квантовой химии неэмпирические расчеты электронной структуры
молекул требуют затрат вычислительных ресурсов, пропорциональных N^4 или
И^5, где N условно характеризует размер молекулы. Сейчас многие
молекулярные системы вынужденно исследуются в упрощенном модельном
представлении. Имея в резерве еще более крупные молекулярные образования
(биологические системы, кластеры и т.д.), квантовая химия дает пример
приложения, являющегося "потенциально бесконечным" пользователем
суперкомпьютерных ресурсов.
Есть еще одна проблема применения суперЭВМ, о которой необходимо
сказать - это визуализация данных, полученных в результате выполнения
расчетов. Часто, например, при решении дифференциальных уравнений методом
сеток, приходится сталкиваться с гигантскими объемами результатов, которые
в числовой форме человек просто не в состоянии обработать. Здесь во многих
случаях необходимо обратиться к графической форме представления информации.
В любом случае возникает задача транспортировки информации по компьютерной
сети. Решению этого комплекса проблем в последнее время уделяется все
большее внимание. В частности, знаменитый Национальный центр
суперкомпьютерных приложений США (NCSA) совместно с компанией Silicon
Graphics ведет работы по программе "суперкомпьютерного окружения будущего".
В этом проекте предполагается интегрировать возможности суперкомпьютеров
POWER CHALLENGE и средств визуализации компании SGI со средствами
информационной супермагистрали.

Архитектура современных суперЭВМ

Приведем классическую систематику Флинна.
В соответствии с ней, все компьютеры делятся на четыре класса в
зависимости от числа потоков команд и данных. К первому классу
(последовательные компьютеры фон Неймана) принадлежат обычные скалярные
однопроцессорные системы: одиночный поток команд - одиночный поток данных
(SISD). Персональный компьютер имеет архитектуру SISD, причем не важно,
используются ли в ПК конвейеры для ускорения выполнения операций.
Второй класс характеризуется наличием одиночного потока команд, но
множественного nomoka данных (SIMD). К этому архитектурному классу
принадлежат однопроцессорные векторные или, точнее говоря, векторно-
конвейерные суперкомпьютеры, например, Cray-1. В этом случае мы имеем дело
с одним потоком (векторных) команд, а потоков данных - много: каждый
элемент вектора входит в отдельный поток данных. К этому же классу
вычислительных систем относятся матричные процессоры, например, знаменитый
в свое время
ILLIAC-IV. Они также имеют векторные команды и реализуют векторную
обработку, но не посредством конвейеров, как в векторных суперкомпьютерах,
а с помощью матриц процессоров.
К третьему классу - MIMD - относятся системы, имеющие множественный
поток команд и множественный поток данных. К нему принадлежат не только
многопроцессорные векторные суперЭВМ, но и вообще все многопроцессорные
компьютеры. Подавляющее большинство современных суперЭВМ имеют архитектуру
MIMD.
Четвертый класс в систематике Флинна, MISD, не представляет
практического интереса,по крайней мере для анализируемых нами компьютеров.
В последнее время в литературе часто используется также термин SPMD (одна
программа - множественные данные). Он относится не к архитектуре
компьютеров, а к модели распараллеливания программ и не является
расширением систематики Флинна. SPMD обычно относится к MPP (т.е. MIMD) -
системам и означает, что несколько копий одной программы параллельно
выполняются в разных процессорных узлах с разными данными.

Векторные суперкомпьютеры [SIMD]

Среди современных суперЭВМ эту архитектуру имеют однопроцессорные векторные
суперкомпьютеры. Типичная схема однопроцессорного векторного
суперкомпьютера представлена на примере FACOM VP-200 японской фирмы Fujitsu
. Похожую архитектуру имеют и другие векторные суперкомпьютеры, например,
фирм Cray Research и Convex . Общим для всех векторных суперкомпьютеров
является наличие в системе команд векторных операций, например, сложение
векторов, допускающих работу с векторами определенной длины, допустим, 64
элемента по 8 байт. В таких компьютерах операции с векторами обычно
выполняются над векторными регистрами, что, однако, совсем не является
обязательным. Наличие регистров маски позволяет выполнять векторные команды
не над всеми элементами векторов, а только над теми, на которые указывает
маска.
Со времен Cray-1 многие векторные суперкомпьютеры, в том числе ЭВМ
серии VP от Fujitsu и серии S компании Hitachi, имеют важное средство
ускорения векторных вычислений,называемое зацепление команд.
Рассмотрим,например, следующую последовательность команд, работающих с
векторными V-регистрами в компьютерах Cray:

V2=V0*V1
V4=V2+V3

Ясно, что вторая команда не может начать выполняться сразу вслед за
первой - для этого первая команда должна сформировать регистр V2, что
требует определенного количества тактов. Средство зацепления позволяет, тем
не менее, второй команде начать выполнение, не дожидаясь полного завершения
первой: одновременно с появлением первого результата в регистре V2 его
копия направляется в функциональное устройство сложения, и запускается
вторая команда. Разумеется, детали возможностей зацепления разных векторных
команд отличаются у разных ЭВМ.
Что касается скалярной обработки, то соответствующая подсистема команд
в японских суперкомпьютерах Fujitsu и Hitachi совместима с IBM/370, что
имеет очевидные преимущества. При этом для буферизации скалярных данных
используется традиционная кэш-память. Напротив, компания Cray Research,
начиная с Сгау-1, отказалась от применения кэш-памяти. Вместо этого в ее
компьютерах используются специальные программно-адресуемые буферные В- и Т-
регистры. И лишь в последней серии, Cray T90, была введена промежуточная
кэш-память для скалярных операций. Отметим, что на тракте оперативная
память - векторные регистры промежуточная буферная память отсутствует, что
вызывает необходимость иметь высокую пропускную способность подсистемы
оперативной памяти: чтобы поддерживать высокую скорость вычислений,
необходимо быстро загружать данные в векторные регистры и записывать
результаты обратно в память. Но некоторые векторные суперЭВМ, например, IBM
ES/9000, работают с операндами-векторами, расположенными непосредственно в
оперативной памяти. Скорее всего, такой подход является менее перспективным
с точки зрения производительности, в частности, потому, что для поддержания
высокого темпа вычислений для каждой векторной команды требуется быстрая
выборка векторных операндов из памяти и запись результатов обратно.

Многопроцессорные векторные суперкомпьютеры (MIMD)

В архитектуре многопроцессорных векторных компьютеров можно отметить
две важнейшие характеристики: симметричность (равноправность) всех
процессоров системы и разделение всеми процессорами общего поля оперативной
памяти. Подобные компьютерные системы называются сильно связанными. Если в
однопроцессорных векторных ЭВМ для создания эффективной программы ее надо
векторизовать, то в многопроцессорных появляется задача распараллеливания
программы для ее выполнения одновременно на нескольких процессорах.
Задача распараллеливания является, пожалуй, более сложной,поскольку в
ней необходимо организовать синхронизацию параллельно выполняющихся
процессов. Практика показала возможности эффективного распараллеливания
большого числа алгоритмов для рассматриваемых сильно связанных систем.
Соответствующий подход к распараллеливанию на таких компьютерах называется
иногда моделью разделяемой общей памяти.
Производительность некоторых современных микропроцессоров RISC-
архитектуры стала сопоставимой с производительностью процессоров векторных
компьютеров. Как следствие этого, появились использующие эти достижения
суперЭВМ новой архитектуры, - сильно связанные компьютеры класса MIMD,
представляющие собой симметричные многопроцессорные серверы с общим полем
оперативной памяти. В модулях памяти обычно используется технология DRAM,
что позволяет достигнуть больших объемов памяти при относительно низкой
цене. Однако скорость обмена данными между процессорами и памятью в таких
серверах во много раз ниже, чем пропускная способность аналогичного тракта
в векторных суперЭВМ, где оперативная память строится на более дорогой
технологии ЯВАМ. В этом состоит одно из основных отличий в подходах к
суперкомпьютерным вычислениям, применяемым для многопроцессорных векторных
ЭВМ и SMP-серверов. В первых обычно имеется относительно небольшое число
векторных регистров, поэтому, как уже отмечалось, для поддержания высокой
производительности необходимо быстро загружать в них данные или, наоборот,
записывать из них информацию в оперативную память. Таким образом, требуется
высокая производительность тракта процессор-память.
Кластеры являются самым дешевым способом наращивания
производительности уже инсталлированных компьютеров. Фактически кластер
представляет собой набор из нескольких ЭВМ, соединенных через некоторую
коммуникационную инфраструктуру. В качестве такой структуры может выступать
обычная компьютерная сеть, однако из соображений повышения
производительности желательно иметь высокоскоростные соединения
(FDDI/ATM/HiPPI и т.п.). Кластеры могут быть образованы как из различных
компьютеров (гетперогенные кластеры), так и из одинаковых (гомогенные
кластеры). Очевидно, что все такие системы относятся к классу MIMD.
Кластеры являются классическим примером слабо связанных систем. В
кластерных системах для организации взаимодействия между процессами,
выполняющимися на разных компьютерах при решении одной задачи, применяются
различные модели обмена сообщениями (PVM, MPI и т.п.). Однако задача
распараллеливания в таких системах с распределенной между отдельными
компьютерами памятью в рамках этих моделей является гораздо более сложной,
чем в модели общего поля памяти, как например, в SMP-серверах. К этому
следует добавить чисто аппаратные проблемы наличия задержек при обменах
сообщениями и повышения скорости передачи данных. Поэтому спектр задач,
которые могут эффективно решаться на кластерных системах, по сравнению с
симметричными сильно связанными системами достаточно ограничен. Для
параллельной обработки запросов к базам данных в подобных системах также
имеются свои собственные подходы.
В кластеры могут объединяться различные суперкомпьютеры. Возможность
наличия большого числа процессорных узлов в SP2 позволяет одновременно
отнести этот компьютер и к классу Mpp-систем.MPP-системы принадлежат к
классу MIMD. Если говорить об MPP-компьютерах с распределенной памятью и
отвлечься от организации ввода-вывода, то эта архитектура является
естественным расширением кластерной на большое число узлов. Поэтому для
таких систем характерны все преимущества и недостатки кластеров.
Благодаря масштабируемости, именно MPP-системы являются сегодня
лидерами по достигнутой производительности компьютера; наиболее яркий
пример этому - Intel Paragon. С другой стороны, проблемы распараллеливания
в MPP-системах по сравнению с кластерами, содержащими немного процессоров,
становятся еще более трудно разрешимыми. Кроме того, приращение
производительности с ростом числа процессоров обычно вообще довольно быстро
убывает. Легко нарастить теоретическую производительность ЭВМ, но гораздо
труднее найти задачи, которые сумели бы эффективно загрузить процессорные
узлы.
Сегодня не так уж много приложений могут эффективно выполняться на Mpp-
компьютере, кроме этого имеется еще проблема переносимости программ между
Mpp-системами, имеющими различную архитектуру. Предпринятая в последние
годы попытка стандартизации моделей обмена сообщениями еще не снимает всех
проблем. Эффективность распараллеливания во многих случаях сильно зависит
от деталей архитектуры Mpp-системы, например топологии соединения
процессорных узлов.
Самой эффективной была бы топология, в которой любой узел мог бы
напрямую связаться с любым другим узлом. Однако в MPP-системах это
технически трудно реализуемо. Обычно процессорные узлы в современных MPP-
компьютерах образуют или двумерную решетку (например, в SNI/Pyramid RM1000)
или гиперкуб (как в суперкомпьютерах nCube [18]).
Поскольку для синхронизации параллельно выполняющихся в узлах
процессов необходим обмен сообщениями, которые должны доходить из любого
узла системы в любой другой узел, важной характеристикой является диаметр
системы с1 - максимальное расстояние между узлами. В случае двухмерной
решетки d ~ sqrt(n), в случае гиперкуба d ~ 1n(n). Таким образом, при
увеличении числа узлов архитектура гиперкуба является более выгодной.
Время передачи информации от узла к узлу зависит от стартовой задержки
и скорости передачи. В любом случае за время передачи процессорные узлы
успевают выполнить много команд, и это соотношение быстродействия
процессорных узлов и передающей системы, вероятно, будет сохраняться -
прогресс в производительности процессоров гораздо больше, чем в пропускной
способности каналов связи. Поэтому инфраструктура каналов связи является
одного из главных компонентов Mpp-компьютера.
Несмотря на все сложности, сфера применения MPP-компьютеров понемногу
расширяется. Различные MPP-системы эксплуатируются во многих ведущих
суперкомпьютерных центрах мира, что наглядно следует из списка ТОР500.
Кроме уже упоминавшихся, следует особенно отметить компьютеры Cray T3D и
Cray ТЗЕ, которые иллюстрируют тот факт, что мировой лидер производства
векторных суперЭВМ, компания Cray Research, уже не ориентируется
исключительно на векторные системы. Наконец, нельзя не вспомнить, что
новейший суперкомпьютерный проект министерства энергетики США будет основан
на MPP-системе на базе Pentium Pro [10].

Заключение

Сегодня в суперкомпьютерном мире наблюдается новая волна, вызванная
как успехами в области микропроцессорных технологий, так и появлением
нового круга задач, выходящих за рамки традиционных научно-
исследовательских лабораторий. Налицо быстрый прогресс в производительности
микропроцессоров RISC-архитектуры, которая растет заметно быстрее, чем
производительность векторных процессоров. Например, микропроцессор HP РА-
8000 отстает от Cray T90 всего примерно в два раза. В результате в
ближайшее время вероятно дальнейшее вытеснение векторных суперЭВМ
компьютерами, использующими RISC-микропроцессоры, такими, как, например,
IBM SP2, Convex/HP SPP, DEC AlphaServer 8400, SGI POWER CHALENGE.
Подтверждением этого стали результаты рейтинга ТОР500, где лидерами по
числу инсталляций стали системы POWER CHALLENGE и SP2, опережающие модели
ведущего производителя суперкомпьютеров - компании Cray Research.



Литература

[1] ComputerWorld Россия, # 9, 1995.
[2] К.Вильсон, в сб. "Высокоскоростные вычисления". М. Радио и Связь, 1988,
сс.12-48.
[3]. Б.А.Головкин, "Параллельные вычислительные системы". М.. Наука, 1980,
519 с.
[4] Р.Хокни, К.Джессхоуп, "Параллельные ЭВМ . М.. Радио и Связь, 1986, 390
с.
[5] Flynn И.,7., IEEE Trans. Comput., 1972, о.С-21, N9, рр. 948-960.
[6] Russel К.М., Commun. АСМ, 1978, v. 21, # 1, рр. 63-72.
[7] Т.Мотоока, С.Томита, Х.Танака, Т. Сайто, Т.Уэхара, "Компьютеры на
СБИС", m.l. М. Мир, 1988, 388 с.
[8] М.Кузьминский, Процессор РА-8000. Открытые системы, # 5, 1995.
[9] Открытые системы сегодня, # 11, 1995.
[10] ComputerWorld Россия, ## 4, 6, 1995.
[11] ComputerWorld Россия, # 8, 1995.
[12] Открытые системы сегодня, # 9, 1995.
[13] ComputerWorld Россия, # 2, 1995.
[14] ComputerWorld Россия, # 12, 1995.
[15] В. Шнитман, Системы Exemplar SPP1200. Открытые системы, # 6, 1995.
[16] М. Борисов, UNIX-кластеры. Открытые системы, # 2, 1995,
cc.22-28.
[17] В. Шмидт, Системы IBM SP2. Открытые системы, # 6, 1995.
[18] Н. Дубова, Суперкомпьютеры nCube. Открытые системы, # 2, 1995, сс.42-
47.
[19] Д. Французов, Тест оценки производительности суперкомпьютеров.
Открытые системы, # 6, 1995.
[20] Д. Волков, Как оценить рабочую станцию. Открытые системы, # 2, 1994,
с.44-48.
[21] А. Волков, Тесты ТРС. СУБД, # 2, 1995, сс. 70-78.





Реферат на тему: Архитектуры AppleTalk и ArcNet
МИНИСТЕРСТВО ОБРАЗОВАНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ

Старооскольский Технологический Институт
(филиал)
Московского государственного
Института стали и сплавов
(технологического университета)



Реферат

По курсу “Сетевые структуры ЭВМ”
Тема: “Архитектуры AppleTalk и ArcNet”



Выполнил:

Ст. гр. АТП-97-1д

Сивцов С.Н.

Проверила:

Мельникова И.В.



г. Старый Оскол, 2000 г.

Содержание

1. AppleTalk
3
1. Библиографическая справка
3
2. Основы технологии
3
3. AppleTalk и компьютеры других компаний
5
4. Доступ к среде
5
5. Сетевой уровень
6
1. Назначения адреса протокола
6
2. Сетевые объекты
6
3. Протокол доставки дейтаграмм (DDP)
7
4. Протокол поддержки маршрутной таблицы (RTMP)
7
6. Транспортный уровень
8
1. Протокол транзакций AppleTalk (ATP)
8
2. Протокол потока данных AppleTalk (ADSP)
8
7. Протоколы высших уровней
9
2. Среда ArcNet
10
1. Функционирование
10
2. Аппаратное обеспечение
10
1. Платы сетевого интерфейса
11
2. Активный и пассивный концентратор
11
3. Кабели и разъемы и терминаторы ArcNet
11

Используемая литература
13



AppleTalk


1.1 Библиографическая справка
В начале 1980 гг. Apple Computer готовилась к выпуску компьютера
Macintosh. Инженеры компании знали, что в скором времени сети станут
насущной необходимостью, а не просто интересной новинкой. Они хотели также
добиться того, чтобы базирующаяся на компьютерах Macintosh сеть была
бесшовным расширением интерфейса пользователя Macintosh, совершившим
подлинную революцию в этой области. Имея в виду эти два фактора, Apple
решила встроить сетевой интерфейс в каждый Macintosh и интегрировать этот
интерфейс в окружение настольной вычислительной машины. Новая сетевая
архитектура Apple получила название Apple Talk.
Хотя Apple Talk является патентованной сетью, Apple опубликовала
характеристики Apple Talk, пытаясь поощрить разработку при участии третьей
стороны. В настоящее время большое число компаний успешно сбывают на рынке
базирующиеся на Apple Talk изделия; в их числе Novell, Inc. и Мicrosoft
Corparation.
Оригинальную реализацию Apple Talk, разработанную для локальных рабочих
групп, в настоящее время обычно называют Apple Talk Phase I. Однако после
установки свыше 1.5 мил. компьютеров Macintosh в течение первых пяти лет
существования этого изделия, Apple обнаружила, что некоторые крупные
корпорации превышают встроенные возможности Apple Talk Phase I, поэтому
протокол был модернизирован. Расширенные протоколы стали известнны под
названием Apple Talk Phase II. Oни расширили возможности маршрутизации
Apple Talk, обеспечив их успешное применение в более крупных сетях.

1.2. Основы технологии
Apple Talk была разработана как система распределенной сети клиент-
сервер. Другими словами, пользователи совместно пользуются сетевыми
ресурсами (такими, как файлы и принтеры). Компьютеры, обеспечивающие эти
ресурсы, называются служебными устройствами (servers); компьютеры,
использующие сетевые ресурсы служебных устройств, называются клиентами
(clients). Взаимодействие со служебными устройствами в значительной степени
является прозрачным для пользователя, т.к. сам компьютер определяет
местоположение запрашиваемого материала и обращается к нему без получения
дальнейшей информации от пользователя. В дополнение к простоте
использования, распределенные системы также имеют экономические
преимущества по сравнению с системами, где все равны, т.к. важные материалы
могут быть помещены в нескольких, а не во многих местоположениях.
Основные термины, используемые в рабочей среде Apple, могут ввести в
заблуждение, поскольку звучат так же, как и в остальных средах, но
обозначают другие аспекты сетевой работы. Здесь будут рассмотрены следующие
компоненты сетевого обеспечения Apple: AppleTalk; LocalTalk; AppleShare;
EtherTalk®; TokenTalk®

AppleTalk

AppleTalk — сетевая архитектура Apple, которая входит в операционную
систему Macintosh. Иначе говоря, сетевые возможности встроены в каждую
машину Macintosh. AppleTalk Phase2 — последняя расширенная версия
AppleTalk. Архитектура представляет собой набор протоколов, соответствующих
модели OSI.
Когда устройство, соединенное с сетью LocalTalk, начинает работу, оно
выполняет, прежде всего, три принципиально важных действия, причем в
определенном порядке.
1. Устройство само назначает себе адрес, произвольно выбранный из
доступных адресов.
2. Устройство сообщает свой адрес другим устройствам, чтобы проверить,
не используется ли он кем-то еще.
3. Если адрес никем не используется, устройство запоминает его и
применяет в дальнейшем.
LocalTalk
Под сетью AppleTalk обычно подразумевают сеть LocalTalk. LocalTalk
имеет следующие характеристики:
метод доступа — CSMA/CA;
топология — шина или дерево;
кабельная система — экранированная витая пара, но можно использовать
оптоволоконный кабель или UTP.
LocalTalk — дешевый вариант, поскольку сеть встроена в аппаратные
средства Macintosh. Но относительно скромная производительность LocalTalk
препятствует ее широкому распространению в крупных сетях. Здесь неоспоримые
преимущества у Ethernet и Token Ring.
Термин “LocalTalk” относится также к компонентам физического кабеля.
Сюда входят: кабели; модули соединителей; удлинители кабеля.
Кабель STP чаще всего используется в топологии “шина” или “дерево”.
Сеть LocalTalk поддерживает до 32 устройств.
Из-за ограничений LocalTalk пользователи предпочитают иметь дело с
кабельной системой, разработанной не компанией Apple, а другими
производителями. Так Farallon® PhoneNet® поддерживает до 254 устройств.
PhoneNet использует телефонный кабель и соединители, может быть реализована
как сеть топологии “шина” или “звезда” (при наличии концентратора).
AppleShare
AppleShare — это файловый сервер в сети AppleTalk. Клиентское
программное обеспечение входит в состав операционной системы Apple.
Существует также принт-сервер AppleShare, который представляет собой спулер
печати на базе сервера.
Зоны
Отдельные сети LocalTalk легко объединить в одну большую сеть. Для
этого служат зоны (zones). Каждая присоединенная подсеть идентифицируется
именем какой-либо зоны. Пользователи одной подсети LocalTalk могут иметь
доступ к услугам другой подсети, просто выбрав нужную зону. Таким образом
расширяется размер сети. Сети, построенные на иной архитектуре, например
Token Ring, с помощью этого метода также могут присоединяться к AppleTalk.
И наоборот, рабочие группы в одной сети LocalTalk могут делиться на
зоны, чтобы снизить нагрузку на сеть. Каждая зона, например, может иметь
свой принт-сервер.
EtherTalk
EtherTalk позволяет сетевым протоколам AppleTalk работать с
коаксиальным кабелем Ethernet.
Плата EtherTalk NB позволяет подсоединять Macintosh II к сети 802.3
Ethernet. С платой поставляется программное обеспечение EtherTalk,
совместимое с AppleTalk Phase2.
TokenTalk
Плата TokenTalk NB является платой расширения, которая позволяет
подсоединять Macintosh II к сети 802.3 TokenTalk. С платой поставляется
программное обеспечение TokenTalk, совместимое с AppleTalk Phase2.

1.3. AppleTalk и компьютеры других компаний
AppleTalk могут использовать компьютеры не только Apple, но и других
компаний, в частности:
IBM-совместимые персональные компьютеры; мэйнфреймы IBM;
компьютеры Digital Equipment Corporation VAXTM некоторые UNIX-
компьютеры.
Компания Apple открыта для сотрудничества с различными фирмами в
области компьютерных разработок. В результате система AppleTalk совместима
с продуктами от разных поставщиков.

1.4. Доступ к среде
Apple разработала AppleTalk таким образом, чтобы он был независимым от
канального уровня. Другими словами, теоретически он может работать в
дополнение к любой реализации канального уровня. Apple обеспечивает
различные реализации канального уровня, включая Ethernet, Token Ring, FDDI
и LocalTalk. Apple ссылается на AppleTalk, работающий в Ethernet, как нa
EtherTalk, в Тоkеn Ring-кaк на TokenTalk и в FDDI-как на FDDITalk.
LocalTalk - это запатентованная компанией Apple система доступа к
носителю. Он базируется на конкуренции на получение доступа, топологии
объединения с помощью шины и передаче сигналов базовой полосы (baseband
signaling) и работает на носителе, представляющим собой экранированную
витую пару, со скоростью 230.4 Kb/сек. Физическим интерфейсом является RS-
422; это сбалансированный интерфейс для передачи электрических сигналов,
поддерживаемый интерфейсом RS-449. Сегменты LocalTalk могут переноситься на
расстояния до 300 метров и обеспечивать до 32 узлов.
1.5. Сетевой уровень
В данном разделе описываются концепции, принятые для сетевого уровня
AppleTalk, и протоколы для этого уровня. В нем рассматриваются назначение
адреса протокола, сетевые объекты и протоколы AppleTalk, которые
обеспечивают функциональные возможности Уровня 3 эталонной модели OSI.

1.5.1. Назначения адреса протокола

Для обеспечения минимальных затрат, связанных с работой администратора
сети, адреса узлов AppleTalk назначаются динамично. Когда Macintosh,
прогоняющий AppleTalk, начинает работать, он выбирает какой-нибудь адрес
протокола (сетевого уровня) и проверяет его, чтобы убедиться, что этот
адрес используется в данный момент. Если это не так, то этот новый узел
успешно присваивает себе какой-нибудь адрес. Если этот адрес используется в
данный момент, то узел с конфликтным адресом отправляет сообщение,
указывающее на наличие проблемы, а новый узел выбирает другой адрес и
повторяет этот процесс.
Фактические механизмы выбора адреса AppleTalk зависят от носителя. Для
установления связи адресов AppleTalk с конкретными адресами носителя
используется протокол разрешения адреса AppleTalk (AARP). AARP также
устанавливает связи между адресами других протоколов и аппаратными
адресами. Если пакет протоколов AppleTalk или любого другой пакет
протоколов должен отправить пакет данных в другой сетевой узел, то адрес
протокола передается в AARP. AARP сначала проверяет адресный кэш, чтобы
определить, является ли уже установленной связь между адресом этого
протокола и аппаратным адресом. Если это так, то эта связь передается в
запрашивающий пакет протоколов. Если это не так, то AARP инициирует
широковещательное или многопунктовое сообщение, запрашивающее об аппаратном
адресе данного протокольного адреса. Если широковещательное сообщение
доходит до узла с этим протокольным адресом, то этот узел в ответном
сообщении указывает свой аппаратный адрес. Эта информация передается в
запрашивающий пакет протоколов, который использует этот аппаратный адрес
для связи с этим узлом.

1.5.2. Сетевые объекты

AppleTalk идентифицирует несколько сетевых объектов. Самым простым
является узел (node), который является просто любым устройством,
соединенным с сетью AppleTalk. Наиболее распространенными узлами являются
компьютеры Macintosh и лазерные принтеры, однако многие другие компьютеры
также способны осуществлять связь AppleTalk, в том числе компьютеры IBM PC,
Digital Equipment Corparation VAX и различные АРМ. Следующим объектом,
определяемым AppleTalk, является сеть. Сеть AppleTalk представляет собой
просто отдельный логический кабель. Хотя этот логический кабель часто
является отдельным физическим кабелем, некоторые вычислительные центры
используют мосты для объединения нескольких физических кабелей. И наконец,
зона (zone) АppleTalk является логической группой из нескольких сетей
(возможно находящихся далеко друг от друга).
1.5.3. Протокол доставки дейтаграмм (DDP)
Основным протоколом сетевого уровня AppleTalk является протокол DDP.
DDP обеспечивает обслуживание без установления соединения между сетевыми
гнездами. Гнезда могут назначаться либо статистически, либо динамически.
Адреса AppleTalk, назначаемые DDP, состоят из 2 компонентов: 16-битового
номера сети (network number) и 8-битового номера узла (node number). Эти
два компонента обычно записываются в виде десятичных номеров, разделенных
точкой (например, 10.1 означает сеть 10, узел 1). Если номер сети и номер
узла дополнены 8-битовым гнездом (socket), обозначающим какой-нибудь особый
процесс, то это означает, что в сети задан какой-нибудь уникальный процесс.

AppleTalk Phase II делает различие между нерасширенными (nоnextended) и
расширенными (extended) сетями. В нерасширенных сетях, таких как LocalTalk,
номер каждого узла AppleTalk уникален. Нерасширенные сети были единственным
типом сети, определенным в AppleTalk Phase I. В расширенных сетях, таких
как EtherTalk и TokenTalk, уникальной является комбинация номер каждой
сети/номер узла.
Зоны определяются управляющим сети AppleTalk в процессе конфигурации
роутера. Каждый узел AppleTalk принадлежит к отдельной конкретной зоне.
Расширенные сети могут иметь несколько зон, которые ассоциируются с ними.
Узлы в расширенных сетях могут принадлежать к любой отдельной зоне, которая
ассоциируется с этой расширенной сетью.
1.5.4. Протокол поддержки маршрутной таблицы (RTMP)
Протокол, который организует и поддерживает маршрутные таблицы
AppleTalk, называется Протоколом поддержки маршрутной таблицы (RTMP).
Маршрутные таблицы RTMP содержат данные о каждой сети, до которой может
дойти дейтаграмма. В эти данные входит порт роутера, который ведет к сети
пункта назначения, ID узла следующего роутера, который принимает данный
пакет, расстояние до сети назначения, выраженное числом пересылок, и
текущее состояние этих данных (хорошее, подозрительное или плохое).
Периодический обмен маршрутными таблицами позволяет роутерам объединенных
сетей гарантировать обеспечение непротиворечивой текущей информацией.
Протокол привязки по именам AppleTalk (Name Binding Protocol - NBP)
устанавливает связь имен AppleTalk (которые выражаются как объекты, видимые
для сети - network-visible entities, или NVE) с адресами. NVE является
адресуемой сетью AppleTalk услугой, такой как гнездо. NVE ассоциируются с
более, чем одним именем объектов и перечнем атрибутов. Имена объектов
представляют собой последовательность символов, например такую:
printer@net1, в то время как перечень атрибутов определяет характеристики
NVE.
Связь между NVE с присвоенными именами и сетевыми адресами
устанавливается через процесс привязки имени. Привязка имени может быть
произведена в момент запуска узла или динамично, непосредственно перед
первым использованием. NBP управляет процессом привязки имени, в который
входят регистрация имени, подтверждение имени, стирание имени и поиск
имени.
Зоны позволяют проводить поиск имени в группе логически связанных
узлов. Чтобы произвести поиск имен в пределах какой-нибудь зоны,
отправляется запрос о поиске в местный роутер, который рассылает
широковещательный запрос во все сети, которые имеют узлы, принадлежащие
заданной зоне. Протокол информации зоны (Zone Information Protocol - ZIP)
координирует эти действия.
ZIP поддерживает соответствие номер сети/номер зоны в информационных
таблицах зоны (zone information tables-ZIT). ZIT хранятся в роутерах,
которые являются основными пользователями ZIP, однако конечные узлы
используют ZIP в процессе запуска для выбора своих зон и получения
межсетевой информации о зонах. ZIP использует маршрутные таблицы RTMP для
отслеживания изменений в топологии сети. Если ZIP находит данные о
маршрутной таблице, которых нет в данной ZIT, она образует запись данных о
новой ZIT. На

1.6. Транспортный уровень
Транспортный уровень AppleTalk реализуется двумя основными протоколами
AppleTalk: AppleTalk Transaction Protocol (ATP) (Протокол транзакций
AppleTalk) и AppleTalk Data Stream Protocol (ADSP) (Протокол потока данных
АppleTalk). АТР является транзакционно-ориентированным, в то время как ADSP
является ориентированным по потоку данных.
1.6.1. Протокол транзакций AppleTalk (ATP)
ATP является одним из протоколов транспортного уровня Appletalk. АТР
пригоден для применений, базирующихся на транзакциях, которые можно
встретить в банках или магазинах розничной торговли.
В транзакции АТР входят запросы (от клиентов) (requests) и ответы (от
служебных устройств) (replies). Каждая пара запрос/ответ имеет отдельный ID
транзакции. Транзакции имеют место между двумя гнездами клиентов. АТР
использует транзакции "точно-один раз" (exactly once - XO) и "по крайней
мере один раз" (at-least-once - ALO), Транзакции ХО требуются в тех
ситуациях, когда случайное выполнение транзакции более одного раза
неприемлемо. Банковские транзакциии являются примером таких неидемпотентных
(nonidempotent) ситуаций (ситуаций, когда повторение какой-нибудь
транзакции вызывает проблемы, что достигается тем, что делаются
недействительными данные, участвующие в данной транзакции).
АТР способен выполнять наиболее важные функции транспортного уровня, в
том числе подтверждение о приеме данных и повторную передачу, установление
последовательности пакетов, а также фрагментирование и повторную сборку.
АТР ограничивает сегментирование сообщений до 8 пакетов; пакеты АТР не
могут содержать более 578 информационных байтов.
1.6.2. Протокол потока данных AppleTalk (ADSP)
ADSP является другим важным протоколом транспортного уровня Apple Talk.
Как видно из его названия, ADSP является ориентированным по потоку данных,
а не по транзакциям. Он организует и поддерживает полностью дублированный
поток данных между двумя гнездами в объединенной сети AppleTalk.
ADSP является надежным протоколом в том плане, что он гарантирует
доставку байтов в том же порядке, в каком они были отправлены, а также то,
что они не будут дублированы. ADSP нумерует каждый байт, чтобы отслеживать
отдельные элементы потока данных.
ADSP также определяет механизм управления потоком. Пункт назначения
может в значительной степени замедлять передачи источника путем сокращения
размера объявленного окна на прием.
ADSP также обеспечивает механизм сообщений управления "выхода из
полосы" (out-of-band) между двумя объектами AppleTalk. В качестве средства
для перемещения сообщений управления выхода из полосы между двумя объектами
AppleTalk используются пакеты "внимания" (attention packets).Эти пакеты
используют отдельный поток номеров последовательностей, чтобы можно было
отличать их от обычных пакетов данных ADSP.

1.7. Протоколы высших уровней
AppleTalk обеспечивает несколько протоколов высшего уровня. Протокол
сеансов AppleTalk (AppleTalk Session Protocol - ASP) организует и
поддерживает сеансы (логические диалоги) между клиентом AppleTalk и
служебным устройством. Протокол доступа к принтеру ( Printer Access
Protocol - РАР) AppleTalk является ориентированным по связи протоколом,
который организует и поддерживает связи между клиентами и служебными
устройствами (использование термина printer в заголовке этого протокола
является просто исторической традицией). Эхо-протокол AppleTalk (AppleTalk
Echo Protocol - AEP) является очень простым протоколом, генерирующим
пакеты, которые могут быть использованы для проверки способности различных
узлов сети создавать повторное эхо. И наконец, Протокол ведения картотеки
AppleTalk (AppleTalk Filing Protocol - AFP) помогает клиентам коллективно
использовать служебные файлы в сети.



2. Среда ArcNet


Среда ArcNet (Attached resource computer Network) была разработана
Datapoint Corporation в 1977 году. Это простая, гибкая, недорогая сетевая
архитектура для сетей масштаба рабочей группы. Первые платы ArcNet были
выпущены в 1983 году.
Технология ArcNet — предшественница стандартов IEEE Project 802, но в
целом она соответствует категории IEEE 802.4. В ней определяются стандарты
для сетей с топологией “шина”, методом доступа с передачей маркера,
построенных на основе широкополосного кабеля. Сеть ArcNet может иметь
топологию “звезда” или “шина”.

2.1. Функционирование
ArcNet использует метод доступа с передачей маркера, топологию “звезда-
шина” и работает на скорости 2,5 Мбит/с. Преемница сети ArcNet — ArcNet
Plus — работает на скорости 20 Мбит/с.
Поскольку ArcNet использует передачу маркера, компьютер в сети ArcNet,
чтобы начать передачу данных, должен получить маркер. Маркер переходит от
одного компьютера к другому согласно назначенным им порядковым номерам,
независимо от их физического местонахождения. Это значит, что маркер
движется от компьютера 1 к компьютеру 2, даже если компьютер 1 находится на
одном конце сети, а компьютер 2 — на другом.
Стандартный пакет ArcNet содержит: адрес приемника; адрес источника; до
508 байтов данных (в ArcNet Plus — 4096 байтов данных).

2.2. Аппаратное обеспечение
Каждый компьютер соединяется с концентратором кабелем. Концентраторы
могут быть пассивными, активными и интеллектуальными (smart). Как Вы уже
знаете, пассивные концентраторы просто осуществляют физический контакт
проводов. Активные концентраторы способны восстанавливать и ретранслировать
сигналы. Интеллектуальные концентраторы — это активные концентраторы,
обладающие диагностическими средствами (например, возможностью обнаружить
изменения в конфигурации и удаленно управлять работой сетевых устройств).
Стандартным для ArcNet кабелем является коаксиальный кабель RG-62 A/U с
волновым сопротивлением 93 0м. ArcNet поддерживает также витые пары и
оптоволоконный кабель. Расстояние между компьютерами зависит от кабельной
системы и топологии.
При использовании коаксиального кабеля с BNC-коннекторами максимальная
длина кабеля —610м (2000 футов), если сеть топологии “звезда”, и 305 м
(1000 футов), если сеть топологии “шина”.
При использовании неэкранированной витой пары с соединителями RJ-11 или
RJ-45 максимальная длина кабеля — 244 м (800 футов) как при топологии
“звезда”, так и при топологии “шина”.
2.2.1. Платы сетевого интерфейса
Платы ArcNet производятся многими поставщиками, включая SMC, Thomas-
Coonrad и Puredate. Стандартные коаксиальные платы должны иметь разъемы
BNC. Когда ArcNet конфигурируется как линейная шина, для подключения к
плате используются T-образные разъемы. При установке платы на бездисковой
рабочей станции требуется ППЗУ.
2.2.2. Активный и пассивный концентратор
Активный концентратор передает усиливает сигнал в сети. Рабочие станции
могут находиться на расстоянии до 600 м. от активного концентратора.
Большинство активных концентраторов имеют 8 портов для подключения рабочих
станций, пассивных концентраторов или дополнительных активных
концентраторов. К неиспользуемым портам терминаторы подключать не
обязательно.
Пассивный концентратор имеет 4-портовый разъем с гнездами BNC и
используется как центр коммутации и разделитель сигнала. Рабочие станции
могут удаляться от пассивного концентратора не более чем на 100 м. К
каждому неиспользуемому порту пассивного концентратора должен подключаться
терминатор.
2.2.3. Кабели и разъемы и терминаторы ArcNet
В сетях ArcNet используется 93-омный коаксиальный кабель. Для
подключения сегментов кабеля к интерфейсным платам, активным и пассивным
концентраторам используются разъемы BNC. Такие кабели в различных вариантах
производит сейчас множество фирм.
При использовании шинной топологии к BNC-разъему подключается Т-
образный разъем, который обеспечивает подключение двух кабельных концов
(вход и выход). Вам потребуются Т-разъемы для каждой рабочей станции и по
два разъема для каждого используемого повторителя.
Ко всем неиспользуемым портам пассивных концентраторов подключаются
терминаторы.
К сетям ArcNet применяются следующие правила и ограничения:
Большинство активных концентраторов имеют 8 узлов. Рабочие станции могут
удаляться от активного концентратора на расстояние до 600 м.
Вы можете подключать активные концентраторы друг к другу, образуя
иерархическую конфигурацию. Максимальное расстояние между двумя активными
концентраторами - 600 м.
Вокруг четырехпортового пассивного концентратора могут группироваться до 3
рабочих станций. Одно соединение остается для активного концентратора или
файлового сервера. Каждая рабочая станция может удаляться от такого
концентратора не более чем на 30.5 м.
Ко всем неиспользуемым портам пассивных концентраторов подключаются
колпачки-терминаторы.
Максимальное расстояние между станциями противоположных концов
многосегментной сети - до 2000 м.
При использовании шинной конфигурации максимальная длина магистрали в
сегменте - 305 м.
Максимальное число станций - 255.
Каждой станции в ArcNet присваивается адрес от 1 до 255.
Хотя обычно считается, что ArcNet имеет низкую пропускную способность,
при использовании активных концентраторов она поддерживает длину кабеля до
2000 м. Ее хорошо использовать для текстовых приложений, когда пользователь
не обращаются часто к серверу. Последние версии ArcNet поддерживают
волоконно-оптические кабели и кабели типа "витая пара". Когда определяющим
фактором является не скорость передачи, а цена, ArcNet будет хороши
выбором. Она обеспечивает гибкие кабельные схемы и длинные магистрали и
поддерживает в той же локальной сети звездообразные конфигурации.
Некоторые разработчики объявили недавно о создании сети ArcNetplus -
совместимой с ArcNet версией со скоростью передачи 10 Мбит/сек. Обе версии
могут использовать одну и ту же локальную сеть. ArcNetplus поддерживает
передачу пакетов большего размера и в 8 раз больше рабочих станций. Ниже
описываются стандартные компоненты сети ArcNet.



3. Используемая литература
1. Справочник Novell Netware 4, С.Б. Орлов, Глава 12. Методы построения
сетевого интерфейса и топология сети.
2. Microsoft Corporation Компьютерные сети: Учебный курс./ Пер. с англ. –
М.: Издательский отдел “Русская редакция” ТОО “Channel Trading Ltd.”, -
2-е изд., испр. и доп. – 1998.




Новинки рефератов ::

Реферат: Зарождение социологии в России и формирование различных направлений (Социология)


Реферат: Выборочные ответы к государственному экзамену факультета ВМС специальности 2201 (Программирование)


Реферат: Роль МПВО в 1941-1945 (Безопасность жизнедеятельности)


Реферат: Принтеры и их классификация, новинки на рынке принтеров (Компьютеры)


Реферат: Анализ финансового состояния предприятия АПК (Бухгалтерский учет)


Реферат: Маркетингова сутність реклами (Маркетинг)


Реферат: Графика и ее виды (Искусство и культура)


Реферат: Коллектив (Психология)


Реферат: Сюрреализм (Искусство и культура)


Реферат: Особенности невербального общения в деятельности учителя (Педагогика)


Реферат: Отношение к викингам в Западной и Восточной Европе (История)


Реферат: Банкротство (несостоятельность) индивидуального предпринимателя (Гражданское право и процесс)


Реферат: Анализ итоговых финансовых результатов деятельности предприятия. Анализ баланса (Бухгалтерский учет)


Реферат: Химико-токсикологический анализ производных фенотиазина (Химия)


Реферат: Личность как субъект и продукт социальных отношений (Социология)


Реферат: RlinC (Литература : русская)


Реферат: Развитие у дошкольников представлений о сохранении свойств объектов (Педагогика)


Реферат: Социальное призрение детей в России (Социология)


Реферат: Инновационный менеджмент (курс лекций) (Менеджмент)


Реферат: Политическая жизнь и политическое устройство Испании (Право)



Copyright © GeoRUS, Геологические сайты альтруист