Появление компьютера: История компьютера: от калькулятора до кубитов

Содержание

История компьютера: от калькулятора до кубитов

Когда появился компьютер?

Точное время изобретения компьютеров определить очень трудно. Их предшественники —  механические вычислительные машины, например счеты, были придуманы человеком задолго до нашей эры. Однако сам термин «компьютер» намного моложе и появился только в XX веке.

Наряду с машинами с перфокартами IBM 601 (1935) важную роль в истории развития компьютерной техники сыграли первые изобретения немецкого ученого Конрада Цузе. На сегодняшний день многие считают, что есть несколько первых компьютеров, изобретенных примерно в одно время.

1936: Конрад Цузе (Konrad Zuse) и Z1

Модель вычислительной машины Z1 в Немецком техническом музее Берлина

В 1936 году Конрад Цузе начал разрабатывать первый программируемый калькулятор, работа над которым была завершена в 1938 году. Z1 был первым компьютером с двоичным кодом и работал с перфолентой. Но к сожалению, механические части калькулятора были очень ненадежны. Реплика Z1 находится в Музее технологий в Берлине.

1941: Конрад Цузе и Z3

Z3 — это преемник Z1 и первый свободно программируемый компьютер, который можно было использовать в разных областях, а не только для вычислений. Многие историки считают, что Z3 — первый в мире функционирующий универсальный компьютер.

1946: системы обработки данных первого поколения

ENIAC

В 1946 году исследователи Экерт и Мочли изобрели первый полностью электронный компьютер ENIAC — Electronic Numerical Integrator and Computer (электронный цифровой интегратор и компьютер). Он использовался армией США для расчета баллистических таблиц. ENIAC владел основными математическими операциями и мог вычислять квадратные корни.

1956-1980 годы: системы обработки данных 2-5 поколений

Programma 101

В эти годы были разработаны языки программирования более высокого уровня, а также принципы работы виртуальной памяти, появились первые совместимые компьютеры, базы данных и многопроцессорные системы. Первый в мире свободно программируемый настольный компьютер был создан компанией Olivetti. В 1965 году стала доступна для покупки электронная машина Programma 101 стоимостью 3200 долларов.

1970-1974: Компьютерная революция

Xerox Alto

Микропроцессоры стали дешевле, и в течение этого периода времени на рынок было выпущено достаточно много компьютерной техники. Ведущую роль здесь сыграли, прежде всего, компании Intel и Fairchild. В эти годы Intel создал, первый микрокомпьютер: 15 ноября 1971 года был представлен 4-битный процессор Intel 4004. В 1973 году вышел Xerox Alto — первый компьютер с графическим пользовательским интерфейсом (монитором), мышью и встроенной картой Ethernet.

1976-1979 годы: микрокомпьютеры

Микрокомпьютеры стали популярны, появились новые операционные системы, а также флоппи-дисководы. Компания Microsoft зарекомендовала себя на рынке. Появились первые компьютерные игры и стандартные названия программ. В 1978 году на рынок вышел первый 32-разрядный компьютер от DEC.

IBM 5100

IBM разработала IBM 5100 — первый «портативный» компьютер весом 25 килограмм. Он имел 16 килобайт оперативной памяти, дисплей 16х64 и стоил более 9 000 долларов. Именно такая высокая цена не позволила компьютеру утвердиться на рынке.

1980-1984: первый «настоящий» ПК

Atari 800XL

В 80-е годы наступило время «домашних компьютеров», таких как Commodore VC20, Atari XL или компьютеров компании Amiga. IBM оказала большое влияние на будущие поколения ПК, представив в 1981 году IBM PC. Обозначенный IBM класс оборудования действителен и сегодня: процессоры x86 основаны на последующих разработках оригинального дизайна IBM.

В конце 1970-х годов существовало множество технических устройств и производителей, но IBM стала доминирующим поставщиком компьютерной техники. В 1980 году компания выпустила первый «настоящий» компьютер — он задал направление развития компьютерных технологий по настоящее время. В 1982 году IBM также вывела на рынок Word, NetWare и другие знакомые нам и по сей день приложения.

В 1983 появился первый Apple Macintosh, сделав ставку на удобство пользователя. В 1984 начали серийный выпуск ПК в СССР. Первый отечественный компьютер, ставший на поток, назывался «АГАТ».

1985/1986: дальнейшее развитие компьютерных технологий

MicroVAX II

В 1985 году вышел 520ST. Это был чрезвычайно мощный для того времени компьютер Atari. В эти же годы был выпущен первый миникомпьютер MicroVAX II. В 1986 году IBM вывела на рынок новую операционную систему (OS/2).

1990: Появление Windows

22 мая 1990 года появилась Windows 3.0, что стало большим прорывом для Microsoft в те годы. Только за первые шесть месяцев было продано около трех миллионов копий операционной системы. Интернет начал рассматривался как глобальный способ коммуникации.

1991-1995: Windows и Linux

В результате прогресса изначально очень дорогие компьютеры стали более доступными. Приложения Word, Excel и PowerPoint наконец объединили в пакет Office. В 1991 году финский разработчик Линус Торвальдс начал работу над Linux.

Во многих компаниях Ethernet стал стандартом передачи данных. Благодаря возможности подключения компьютеров друг к другу, становилась все популярнее модель клиент-сервер, позволявшая работать в сети.

1996-2000: Интернет приобретает все большее значение

В эти годы ученый-программист Тим Бернерс Ли разработал язык разметки HTML, протокол передачи HTTP и URL-адрес — унифицированный указатель ресурсов, чтобы дать каждому сайту имя и передать контент с веб-сервера в браузер. Начиная с 1995 года было доступно множество веб-редакторов, что позволило многим людям создавать свои собственные сайты.

XXI век: дальнейшее развитие

PowerMac G5

В 2003 году Apple выпустила PowerMac G5. Это был первый компьютер с 64-битным процессором. В 2005 году Intel создала первые двухъядерные процессоры.

В последующие годы основной курс развития стал направлен на разработку многоядерных процессоров, расчеты на графических чипах и также планшетных компьютерах. С 2005 года начали учитывать экологические аспекты при дальнейшей разработке компьютерной техники.

Новейшие технологии: квантовый компьютер

Сегодня ученые работают над квантовыми компьютерами. Эти машины основаны на кубитах. Как именно работают квантовые компьютеры, мы рассказывали в нашем журнале и в этой статье.

Читайте также:

Фото: wikipedia.org, pxhere.com

История появления и эволюция компьютера

Компьютер сегодня является неотъемлемой частью жизни многих людей. Но так было не всегда. Ученым понадобилось несколько столетий, чтобы создать то, что мы сегодня называем компьютером.


Первый прототип компьютера появился еще 1623 году. Именно тогда немецкий ученый Шиккард создал аппарат, который мог выполнять сложение и вычитание. Чуть позже француз Блез Паскаль изобрел такой же аппарат, но с возможностью делать еще умножение и деление. Основой такого арифмометра было зубчатое колесо.Спустя два столетия, в 1832 году английский математик Чарльз Бэббидж придумал аппарат, который свои исчисления выводил на негативную пластинку для фотопечати. В 1834 году он изобрел машину, которая управляла ткацким станком. Специальная бумажная лента с дырками задавала алгоритм смены узора ткани.

Американский ученый Герман Холлерит в 1890 году изобрел машину, которая работала с таблицами (прототип Exel). В том же году ее использовали при переписи населения в США.

Впервые двоичную систему исчисления воплотил в работе машины немец Конрад Цузе. Это случилось в 1938 году.

Настоящий прорыв в создании компьютера случился вначале 50-х. В США создали первую электронно-вычислительную машину (ЭВМ). Она уже имела собственную память и могла запомнить 1024 слова. Но ее минусом был размер: машина занимала 200 квадратных метров и весила 30 тонн. Уменьшить машину удалось в следующем десятилетии – тогда большие лампы заменили на маленькие транзисторы. В то же время были созданы первые языки программирования.

Следующим переломным этапом в истории ЭВМ стало изобретение компанией Intel микропроцессора. Сперва, он мог выполнять лишь четыре математических действия, поэтому использовался только в калькуляторах. Чуть позже компания усовершенствовала микропроцессор, его уже можно было применять при создании ЭВМ. Именно микропроцессор компании Intel был использован молодым Биллом Гейтсом при создании его программы на языке программирования Basic.

Не менее важным стало создание микропроцессора, благодаря которому ЭВМ мог выполнять сразу несколько программ. Это случилось в 1985 году, а в 1993 году появились микропроцессоры Intel Pentium. Создание процессора Pentium Pro позволило выпускать не только большие и дорогие ЭВМ, но и дешевые ПК для массового потребителя.

Первые ЭВМ в СССР появились в начале 80-х. Первым серийным компьютером стала «Электроника БК-0010». Было также создано много других электронно-вычислительных машин, но из-за конкуренции с Запада отечественные компьютеры не смогли найти своего места на рынке.

Конструкции компьютеров могут быть отнесены к трем основным этапам, которые называют поколениями. Компьютеры первого поколения были большими машинами, построенными на лампах. Более надежные и малогабаритные компьютеры на транзисторах считаются машинами второго поколения. Наконец, современные компьютеры на кремниевых микросхемах – это машины третьего поколения. Вот некоторые основные даты истории развития компьютера.

1945 г. Построена первая полностью электронная вычислительная машина ENIAC. Это сокращение с английского означает: «электронный цифровой интегратор и калькулятор». Первая машина была больше похожа на калькулятор, чем на современный компьютер, поскольку не могла запомнить данные и программы.

1947 г. Изобретен новый электронный компонент – транзистор. Их впервые начали использовать в компьютерах с 1953 года.

1948 г. Машина «Марк-1» Манчестерского университета была первым настоящим компьютером (т.е. могла запоминать программы).

1958 г. Разработана первая интегральная схема.

1960 г. Выпущены первые микросхемы – интегральные схемы на кремниевых кристаллах.

1975 г. Продан первый маленький бытовой компьютер «Альтаир».

1980 г. В Японии изготовлен первый карманный компьютер «Шарп-РС 1211».

1981 г. Фирма IBM выпустила малогабаритный, но мощный настольный микрокомпьютер ПК.

Сегодня мы не можем представить свою жизнь без компьютера. Современные компьютеры применяются для самых разных задач – от сочинения музыки и рисования до управления самолетами.

История создания компьютеров

Поколения ЭВМ

Каждый этап развития ЭВМ определяется совокупностью элементов ЭВМ, из которых строились компьютеры — элементной базой.

С изменением элементной базы ЭВМ значительно изменялись характеристики, внешний вид, габариты, возможности компьютеров. Через каждые 8 — 10 лет происходил резкий скачок в конструкции и способах производства ЭВМ.

ЭВМ первого поколения

В октябре 1945 года в США был создан первый компьютер ENIAC (Electronic Numerical Integrator And Calculator — электронный числовой интегратор и вычислитель).

В ЭВМ первого поколения использовались электронные лампы. Так, фирма IBM в 1952 году выпустила первый промышленный компьютер IBM-701, содержащий 4000 электронных ламп и 12000 германиевых диодов. Один компьютер этого типа занимал площадь порядка 30 кв. метров, потреблял много электроэнергии, имел низкую надежность. Поиск неисправности составлял 3-5 дней.

ЭВМ второго поколения

ЭВМ второго поколения составляли транзисторы, они занимали меньше места, потребляли меньше электроэнергии и были более надёжными. В 1955 году в США было объявлено о разработке полностью транзисторной ЭВМ — TRADIC включающей 800 транзисторов и 11000 диодов. В 1958 году машина Philco — 2000 содержала 56 тыс. транзисторов, 1, 2 тыс. диодов и 450 электронных ламп.

Наивысшим достижением отечественной вычислительной техники созданной коллективом С.А. Лебедева явилась разработка в 1966 году полупроводниковой ЭВМ БЭСМ-6 с производительностью 1 млн. операций в секунду.

ЭВМ третьего поколения

ЭВМ третьего поколения обязано созданием интегральной схемы (ИC) в виде одного кристалла, в миниатюрном корпусе которого были сосредоточены транзисторы, диоды, конденсаторы, резисторы. Создание процессоров осуществлялось на базе планарно-диффузионной технологии.

В 1964 году фирма IBM объявила о создании модели IBM-360, производительность её достигала несколько миллионов операций в секунду, объём памяти значительно превосходил машины второго поколения. В 1966 — 67 гг. ЭВМ 3-го были выпущены фирмами Англии, ФРГ, Японии.

В 1969 году СССР совместно со странами СЭВ была принята программа разработки машин 3-го поколения. В 1973 была выпущена первая модель ЭВМ серии ЕС, с 1975 года появились модели ЕС-1012, ЕС-1032, ЕС-1033, ЕС-1022, а позже более мощная ЕС-1060.

При развитии ЭВМ третьего поколения, начиная с 60-х годов, элементарная база перестала быть определяющим признаком поколения. Предпочтение стали отдавать архитектуре (составу аппаратных средств), функционально-структурной организации и программному обеспечению. Миникомпьютеры для народного хозяйства обозначались СМ ЭВМ (Система малых ЭВМ, смотри фотографию).

ЭВМ четвертого поколения

Совершенствование интегральных схем привело к появлению микропроцессоров, выполненных в одном кристалле, включая оперативную память (БИС — большие интегральные схемы), что ознаменовало переход к четвертому поколению ЭВМ. Они стали менее габаритными, более надежными и дешевыми. Создание ЭВМ четвертого поколения привело к бурному развитию мини- и особенно микро- ЭВМ — персональных компьютеров (1968 г.), которые позволили массовому пользователю получить средство для усиления своих интеллектуальных возможностей. В свою очередь персональные ЭВМ (ПВМ) развивались по этапам: появились сначала 8-ми, 16-ти, а затем и 32-х разрядные ЭВМ. Шина данных современного компьютера 64-х разрядная.

К ЭВМ четвертого поколения относятся ПЭВМ “Электроника МС 0511” комплекта учебной вычислительной техники   КУВТ УКНЦ, а также современные IBM — совместимые компьютеры, на которых мы работаем.

ЭВМ пятого поколения

В 1980-егоды стало ясно, что использование компьютерной техники позволило резко повысить производительность труда при обработке больших потоков информации, сфера внедрения ЭВМ активно расширялась во все отрасли народного хозяйства. А это заставило разработчиков совершенствовать компьютерную технику. Постепенно прорисовывались требования к ЭВМ пятого поколения. Они должны:

  • накапливать и хранить большие массивы информации и оперативно ее выдавать пользователю;
  • анализировать информацию и выдавать оптимальные решения, т. е. быть интеллектуальным компьютером;
  • общаться с помощью голоса на языке пользователя, воспринимать и обрабатывать текстовую и графическую информацию;
  • объединить в сети ЭВМ различных классов для обработки и передачи информации на большие расстояния.
В ЭВМ пятого поколения предусматривается другой принцип работы процессоров и способы обработки информации в них. В настоящее время компьютеров пятого поколения, пока, не создано.

Защита компьютера от вирусов

Эта статья посвящена способам защиты компьютера от вирусов, которые могут повредить компьютер или позволить злоумышленникам украсть ваши данные, личные сведения или деньги.

  • Используйте антивредоносное приложение — Установите антивредоносное приложение и регулярно обновляйте его. Это позволит защитить ваш компьютер от вирусов и других вредоносных программ. Антивредоносные приложения выполняют поиск вирусов, шпионского и другого вредоносного программного обеспечения, пытающегося проникнуть в вашу электронную почту, операционную систему или файлы. Новые угрозы могут появляться ежедневно, поэтому необходимо регулярно проверять наличие обновлений на веб-сайте изготовителя антивредоносного приложения.

    Microsoft Defender — это бесплатная антивредоносная программа, входящая в состав Windows. Ее можно обновлять автоматически с помощью Центра обновления Windows. Также можно выбрать один из сторонних антивирусных продуктов.

    Больше не всегда лучше

    Одновременный запуск нескольких приложений для защиты от вредоносных программ может привести к замедлению или нестабильной работе вашей системы. При установке стороннего приложения для защиты от вредоносных программ Microsoft Defender автоматически отключается. При установке двух сторонних приложений для защиты от вредоносных программ, они могут одновременно начать работу. 

  • Не открывайте сообщения электронной почты от незнакомых отправителей или незнакомые вложения. Многие вирусы передаются в виде вложений в электронные письма, и для их распространения достаточно открыть вложение. Настоятельно рекомендуем открывать только ожидаемые или известные вам вложения. Дополнительные сведения см. в следующем разделе: Защита от фишинга.

  • Используйте блокирование всплывающих окон в веб-браузере. Всплывающие окна — это небольшие окна в браузере, отображающиеся поверх просматриваемой вами веб-страницы. Несмотря на то, что большинство таких окон используется для рекламных целей, в них может содержаться вредоносный или небезопасный код. Блокирование всплывающих окон позволяет избавиться от некоторых или даже всех всплывающих окон. Блокирование всплывающих окон в Microsoft Edge включено по умолчанию.

  • При использовании Microsoft Edge, убедитесь, что SmartScreen включен. SmartScreen в Microsoft Edge помогает защитить от фишинга и атак вредоносных программ, предупреждая о возможной небезопасности веб-сайта или расположения загрузки. Дополнительные сведения см. в разделе Что такое фильтр SmartScreen и как он меня защищает?

  • Обратите внимание на уведомления Windows SmartScreen. С осторожностью запускайте неизвестные приложения, скачанные из Интернета. Такие приложения с большой вероятностью могут оказаться небезопасными. Когда вы загружаете и запускаете приложение из Интернета, SmartScreen использует сведения о его репутации, чтобы предупредить вас, если приложение малоизвестно и может быть вредоносным.

  • Регулярно обновляйте Windows. Корпорация Майкрософт регулярно выпускает особые обновления для системы безопасности, предназначенные для защиты компьютера. Обновления могут предотвратить атаки вирусов и других вредоносных программ, закрывая возможные слабые места в системе безопасности.

    Включите Центр обновления Windows, чтобы ОС Windows автоматически получала эти обновления.

  • Используйте брандмауэр. Брандмауэр Windows или любое другое приложение брандмауэра может уведомлять вас о подозрительной активности, когда вирус или вирус-червь пытается подключиться к вашему компьютеру. Он также позволяет блокировать вирусы, червей и злоумышленников, отправляющих потенциально опасные приложения на компьютер.

  • Используйте параметры конфиденциальности браузера. Некоторые веб-сайты могут пытаться использовать ваши личные данные для целевой рекламы, мошенничества и кражи личных сведений.

  • Убедитесь, что функция контроля учетных записей включена. При внесении на компьютере изменений, требующих прав администратора, функция контроля учетных записей уведомит вас об этом и предложит утвердить эти изменения. Контроль учетных записей не позволяет вирусам вносить нежелательные изменения. Чтобы открыть контроль учетных записей, проведите пальцем от правой границы экрана, а затем коснитесь элемента Поиск. (Если вы используете мышь, наведите указатель на правый верхний угол экрана, переместите указатель вниз, а затем щелкните Поиск.) Введите в поле поиска контроль учетных записей, а затем выберите элемент Изменение параметров контроля учетных записей.

  • Очистите кэш Интернета и журнал браузера . Большинство браузеров сохраняют информацию о посещаемых веб-сайтах, а также информацию, которую вы предоставляете (например, ваше имя и адрес). Хотя хранение этих сведений на компьютере может быть полезно, существуют ситуации, когда эти сведения необходимо удалить частично или полностью, — например, если вы работаете на общедоступном компьютере и не хотите оставлять на нем свои личные сведения. Дополнительные сведения см. в статье Удаление журнала браузера.

  • Устранение STOP-ошибок (ошибки типа «синий экран») в Windows 7

    Если вы использовали компьютер Windows Complete для создания резервной копии образа системы в рамках резервного плана, вы можете восстановить компьютер с помощью образа системы.

    Системное изображение — это копия раздела на жестком диске с Windows. Кроме того, в нем содержатся все данные, которые были в разделе на момент создания образа, включая Windows, программы и данные пользователей, например документы, рисунки и музыка. Чтобы использовать этот вариант, необходимо предварительно создать образ системы.

    При восстановлении системного изображения содержимое жесткого диска заменяется содержимым системного изображения. Это означает, что любые изменения, внесенные вами, установленные программы или файлы, сохраненные после создания системного образа, скорее всего, будут потеряны, если у вас не будет последней резервной копии данных.

    Восстановление из образа системы с помощью предварительно установленных параметров восстановления

    1. Извлеките все компакт-диски, DVD и другие носители из компьютера, а затем перезапустите его с помощью кнопки питания.

    2. Выполните одно из следующих действий:

      • Если на компьютере установлена одна операционная система, во время перезапуска компьютера нажмите и удерживайте клавишу F8. Необходимо нажать клавишу F8 до появления логотипа Windows. Если отобразился логотип Windows, необходимо повторить попытку; для этого дождитесь появления экрана входа в систему Windows, а затем завершите работу компьютера и перезапустите его.

      • Если на компьютере установлено несколько операционных систем, с помощью клавиш со стрелками выберите операционную систему, которую вы хотите восстановить, а затем нажмите и удерживайте клавишу F8.

    3. На экране Дополнительные варианты загрузки с помощью клавиш со стрелками выберите пункт Восстановление системы, а затем нажмите клавишу ВВОД. (Если пункта Восстановление системы нет в списке, это означает, что на компьютере нет предварительно установленных параметров восстановления или администратор сети выключил их.)

    4. Выберите необходимую раскладку клавиатуры и нажмите кнопку Далее.

    5. В меню Параметры восстановления системы щелкните Восстановление образа системы и следуйте инструкциям на экране.

    Восстановление из образа системы с использованием установочного диска Windows 7, USB-устройства флэш-памяти или диска восстановления системы

    Если на компьютере нет доступа к меню «Параметры восстановления системы», вы можете получить к нему доступ с помощью установочного диска Windows 7 или USB-устройства флэш-памяти или системного диска восстановления, если вы создали его ранее.

    Чтобы воспользоваться этим методом, необходимо перезапустить компьютер, используя диск.

    1. Вставьте Windows 7 установочного диска, USB-устройства флэш-памяти или системного диска восстановления, а затем выключите компьютер.

    2. Перезапустите компьютер с помощью кнопки питания.

    3. Если отобразится соответствующий запрос, нажмите любую клавишу и следуйте инструкциям на экране.

    4. На странице «Установка Windows» или на странице «Параметры восстановления системы» выберите язык и другие параметры и нажмите кнопку «Далее». Если не отображаются ни страница «Установка Windows», ни страница «Параметры восстановления системы», ни предложение нажать любую клавишу, то вам может потребоваться изменить некоторые параметры системы. Сведения о том, как это сделать, см. в статье Загрузка компьютера с USB-устройства флэш-памяти или установочного диска Windows 7.

    5. Если вы используете установочный диск Windows, щелкните Восстановление системы.

    6. Выберите установленный экземпляр Windows, который необходимо исправить, а затем нажмите кнопку Далее.

    7. В меню Параметры восстановления системы щелкните Восстановление образа системы и следуйте инструкциям на экране.

    Как появление компьютера изменило астрономию? / Блог компании Timeweb / Хабр

    С проведения наблюдений невооружённым глазом Тихо Браге и ручной обработки его данных Иоганном Кеплером на рубеже XVI-XVII веков астрономия прошла гигантский путь. Сейчас ни один из этапов сбора научных данных, их обработки и проверки астрономических моделей не обходится без вычислительной техники. И сегодня я расскажу о том, как компьютеры завоёвывали своё место в астрономии.

    Радиоинтерферометрия

    Разрешение телескопа прямо пропорционально его диаметру и обратно пропорционально используемой частоте (это называется дифракционным пределом). Поэтому несмотря на то, что радиотелескопы в разы крупнее других видов телескопов, их разрешение долгое время сильно уступало всем остальным. Частичным решением этой проблемы стало объединение нескольких отдельно стоящих радиотелескопов в совместно работающую систему, объединённую кабелями связи. Впервые сконструировать радиоинтерферометр, провести на нём наблюдения и опубликовать полученные данные удалось Мартину Райлу и Дереку Вонбергу ещё в 1946 году. Однако необходимость наличия устойчивого канала связи между антеннами на всей продолжительности наблюдений сильно ограничивало эту технологию.

    В 1965 году советские учёные Николай Кардашёв и Леонид Матвеенко предложили обойти эту проблему сбором наблюдательных данных на каждом радиотелескопе в отдельности, с их последующим сбором в одном месте и обработкой на компьютере. Так на свет появилась радиоинтерферометрия со сверхдлинными базами, которая вначале позволила увеличить размеры «виртуальной радиоантенны» вплоть до размеров континентов, а потом и вовсе шагнуть до масштаба системы Земля-Луна в российском проекте «РадиоАстрон». Из «аутсайдера» астрономии по разрешающей способности, в течение XX века радиоастрономия превратилась в лидера. С созданием телескопа «Миллиметрон» это звание может достаться инфракрасному диапазону спектра, так как для него закладывается разрешающая способность сразу в ≈200 раз больше максимально достигнутой к данному моменту, однако из-за высокой технической сложности и недостаточного финансирования этого проекта пока трудно предугадать, когда он сможет вступить в действие.

    Сделанный 11 апреля 2017 года снимок сверхмассивной чёрной дыры в галактике M87, расположенной в 55 млн световых лет от нас. Съёмка проводилась кооперацией «Телескопа горизонта событий», включавшей 8 радиотелескопов из США, Чили, Испании, Мексики и Дании, в число которых входил Южный полярный телескоп, расположенный на антарктической станции Амундсена-Скотта. Для получения 4 таких снимков 200 учёным из 13 научных организаций мира пришлось собрать около десятка петабайт данных, на обработку которых ушло 2 года.

    Фотоприёмники

    В конце XIX века фотоэмульсии совершили революцию в астрономии: позволили отойти от привязки к светочувствительности и остроте зрения конкретного наблюдателя, параллельно дав возможность подолгу накапливать сигнал от слабых источников света. Однако свойства фотоэмульсий также варьировались от образца к образцу, поэтому требовалась ручная калибровка снимков. А эффективность накопления ими света составляла лишь около 2%, что ограничивало потенциал существовавших телескопов. На время параллельно с ними стали применяться изобретённые в СССР видиконы (разновидность электронно-лучевых трубок), которые успели поучаствовать во многих наземных наблюдениях и нескольких космических миссиях.

    Но уже вскоре места фотоэмульсий и видиконов стали активно занимать изобретённые в 1969 году сотрудниками «Bell Labs» Уиллардом Бойлом и Джорджем Смитом ПЗС-матрицы, которые могли накапливать свет с эффективностью, приближающейся к 100%. Кроме того, при использовании активного охлаждения они позволяли практически полностью избавиться от шумов. В 1976 году инженер JPL Джим Джейнсик и планетолог Университета Аризоны Брэд Смит впервые с помощью ПЗС-матрицы получили снимки с 1,5-метрового телескопа обсерватории «Mt. Bigelow». С тех пор ПЗС-матрицы заменили приёмники практически во всех профессиональных телескопах и космических обсерваториях, но сейчас начали уступать своё место КМОП интегральным схемам в оборудовании астрофотографов и астрономов-любителей, благодаря дешевизне последних, меньшему энергопотреблению и скорости считывания снимков.

    Компьютерное управление

    Для проведения длительных наблюдений телескопы требовалось устанавливать на поворотные механизмы, которые могли позволить компенсировать вращение Земли вокруг своей оси. Ещё в течение XVII века была изобретена экваториальная монтировка с часовым механизмом, что позволило отслеживать звёзды вращением телескопа в единственной плоскости, отцентрированной по полюсу мира. Однако для массивных телескопов намного более подходящей была альт-азимутальная монтировка, в которой одна ось была отцентрирована по горизонту, а другая отвечала за движение телескопа в вертикальной плоскости. Но у подобной монтировки был существенный недостаток: для отслеживания звёзд телескопу необходимо было двигаться сразу в 2 плоскостях, причём это движение должно было происходить с переменной скоростью. Решением данной проблемы стало использование компьютера для управления движением телескопа.

    БТА – крупнейший телескоп мира в 1975-1993 годах.

    Первый полностью управляемый компьютером телескоп с диаметром 3,9 метра вступил в действие в 1974 году в Австралийской астрономической обсерватории (AAO), но его монтировка оставалась классической экваториальной. Однако уже в 1975 году заработал советский 6-метровый телескоп БТА, который в полной мере использовал преимущества и компьютерного управления, и альт-азимутальной монтировки. Современная профессиональная астрономия пошла ещё дальше, позволив учёным направлять заявки для наблюдений и получать научные данные прямо через Интернет, не приезжая в обсерваторию вовсе.

    Некоторые астрономы не без основания указывают на то, что такой подход убивает романтику профессии и дух первооткрывательства. Но в этом есть и свои плюсы: во время текущей пандемии пришлось закрыть более 120 крупнейших телескопов – почти все, которые не были автоматизированы. Таким образом, наш БТА на время поднялся до 2-й строчки в списке крупнейших телескопов, продолжающих свою работу (теперь за процессом его работы может наблюдать любой желающий в Интернете).

    Коррекция снимков

    О том, что неспокойная земная атмосфера мешает проведению точных астрономических наблюдений, было известно ещё во времена Исаака Ньютона. Но с появлением многометровых телескопов в середине XX века этот вопрос встал особенно остро. В 1950-х годах для решения этой проблемы начал применяться метод удачных экспозиций, предусматривающий проведение серии снимков с короткими экспозициями, с последующим отбором лучших. Такой подход позволял вплотную подойти к теоретическому пределу разрешения существовавших телескопов, но только при съёмке объектов с размерами до 10-20 угловых секунд и при наличии в поле зрения телескопа яркой звезды от 14-й звёздной величины (она служила эталоном для отбора снимков). Кроме того, этот метод не отличался высоким КПД использования наблюдательного времени, поэтому хотя он и является неплохим выбором для любительской астрофотографии, но поиски лучших альтернатив для профессиональной астрономии продолжились.

    В 1953 году Хорас Бэбкок предложил отслеживать турбулентность атмосферы в реальном времени и корректировать создаваемые ею искажения с помощью составной оптической системы (этот метод получил название адаптивной оптики). Однако ещё некоторое время это было неразрешимой задачей, так как для этого нужны были большие вычислительные мощности и такой же стабильный и яркий источник света, как и для предыдущего метода. Достаточно мощные компьютеры появились довольно скоро, а в 1985 году Рено Фуа и Антуан Лабейри предложили решить вторую проблему применением лазерного луча с особой длиной волны, который бы достигал верхних слоёв атмосферы около 90 км и, отражаясь там от атомов натрия, создавал необходимый эталон (в реальности впервые этот метод был открыт Юлиусом Фейнлейбом в 1981 году, однако так как это было частью военного исследования, оно было засекречено вплоть до начала 1991 года).

    Слева-направо: снимок Нептуна 8,2-метровым телескопом VLT без адаптивной оптики, снимок 2,4-метрового космического телескопа «Хаббл», снимок телескопа VLT с адаптивной оптикой.

    Для решения той же проблемы в 1997 году Джон Тонри, Барри Берко и Пол Шехтер из Массачусетского технологического института предложили использовать специальный тип ПЗЦ-матрицы (OTCCD), также выполняющий коррекцию снимка в процессе съёмки, но уже на уровне считывающих ячеек самой матрицы (эта технология оказалась применима и в паре с адаптивной оптикой, позволяя добиваться лучшего результата в корекции).

    Строящийся сейчас 39,3-метровый «Чрезвычайно большой телескоп» (ELT) должен будет вывести технологию адаптивной оптики на новый уровень, используя сразу 798 независимых сегментов главного зеркала, корректирующих своё положение по тысяче раз в секунду.

    Обработка научных данных

    В последние десятилетия количество получаемых в астрономии данных испытывает экспоненциальный рост. Астрономы быстро пришли к выводу, что это требует систематического подхода к хранению и обработке данных. И первым шагом на этом пути стало создание в 80-х годах интерактивных баз астрономических статей и документов ADS и ESIS, а также «Универсального пакета программ для обработки и анализа астрономических данных» IRAF с широким функционалом (они соответственно были созданы NASA, Европейским космическим агентством ESA и Национальной обсерваторией оптической астрономии NOAO). А в 1991 году Роберт Немирофф и Джон Валлин создали Астрофизическую библиотеку исходного кода (ASCL), для того чтобы сделать астрономические исследования более прозрачными.

    Очередной шаг в систематизации работы с данными состоялся в конце 90-х годов, когда возникла «Виртуальная обсерватория». Её концепция заключалась в хранении в одном месте астрономических архивов и программных пакетов. Доступ учёных 24/7 к этому хранилищу обеспечивался благодаря Интернету.

    В 2002 году эта идея привела к созданию Международного альянса виртуальных обсерваторий (IVOA), состоящем сейчас из ESA и организаций из 20 стран. IVOA продвигает идеи по стандартизации массивов данных, созданию стандартных способов доступа к ним и типового инструментария для обработки данных, а также поддерживает обучение астрономов работе с этими инструментами благодаря паре ежегодных конференций и других мероприятий. Подобная работа ведётся и независимо от IVOA, например, на ежегодных событиях вроде конференции «Программное обеспечение и оборудование для анализа астрономических данных» (ADASS) и европейской летней школы «Передовое программное обеспечение для астрофизики и космомикрофизики» (ESCAPE Summer School). Всё это ведёт к развитию в астрономии международного сотрудничества и сокращению параллельных работ над решением однотипных задач, что оставляет астрономам больше времени для выполнения основных задач: проверки существующих теорий и поиска таких закономерностей, которые ведут к открытию новых явлений и возникновению новых теорий.

    «Впервые в рамках последовательного обзора у нас будет закаталогизировано больше астрономических объектов, чем людей на Земле», – говорит Саймон Кругхофф, являющийся членом команды управления данными Обсерватории имени Веры Рубин (известной ранее как LSST). Этот $473-миллионный проект предусматривает создание 8,4-метрового телескопа с обзором в 49 раз больше углового размера Луны и 3,2-гигапиксельной камерой, которая должна будет делать по 2 тыс. 15-секундных снимков за ночь и производить тем самым по 30 ТБ научных данных за сутки.

    Однако не во всех случаях для обработки наблюдательных данных существуют подходящие алгоритмы или банально выделяется достаточно средств для её проведения. Поэтому с 2000-х годов астрономы в некоторых случаях прибегают к помощи «дополнительных рук» добровольцев, в таких проектах как «Galaxy Zoo» по классификации типов галактик и «CosmoQuest» по картографированию кратеров на Луне и астероиде Веста, а также обращаются к дополнительным вычислительным мощностям, предоставляемым добровольными вычислениями.

    Так что хотя сейчас работа астрономов в основном сконцентрировалась на создании эффективных алгоритмов обработки и визуализации данных, но значимость ручного труда и помощи гражданской науки не отпала полностью. Так добровольный проект «Planet Hunters», занимающийся перепроверкой данных телескопов «Кеплер» и «TESS», за 2 года работы второго телескопа успел обнаружить 90 новых кандидатов в планеты, которые пропустили алгоритмы NASA. А с помощью компьютеров 500 тыс. добровольцев проекта Einstein@Home удалось обнаружить 55 новых радиопульсаров и 39 гамма-пульсаров.

    Сейчас поучаствовать в астрономических исследованиях может практически любой желающий. Хотя один из самых старых и известных проектов Boinc «SETI@home» был заморожен около года назад для обработки результатов, но на сайте остаётся 5 действующих проектов, посвящённых астрономии и астрофизике. А на сайте Zooniverse собрано сразу 17 проектов, где вы можете попробовать свои силы в обработке астрономических снимков.

    Что такое жесткий диск? — Dropbox Business

    Жесткий диск: что это такое

    Жесткий диск — это устройство, используемое для хранения цифрового содержимого и других данных на компьютерах. Каждый компьютер имеет внутренний жесткий диск, но вы также можете пользоваться внешними жесткими дисками для увеличения объема места на компьютере. В этой статье мы рассмотрим различные типы жестких дисков, их преимущества и недостатки.

    Типы резервных хранилищ

    Всем компьютерам требуются накопители для долгосрочного хранения данных. Эти накопители называют резервными хранилищами, а оперативная память (ОЗУ) компьютера является основным хранилищем.

    В общем, резервные хранилища бывают двух видов: жесткие диски (HDD) и твердотельные накопители (SSD). SSD относят к жестким дискам, но это не совсем точно, и важно понимать разницу между HDD и SSD.

    Что такое HDD?

    HDD — это более традиционный тип жесткого диска.

    Жесткие диски состоят из намагниченных металлических или стеклянных круглых пластин, вращающихся со скоростью от 5400 до 15 000 об./мин. Чем быстрее вращается магнитный диск, тем быстрее ваш компьютер сможет получить доступ к находящейся на нем информации.

    Все цифровые данные поступают в виде бинарного кода — последовательности единиц и нулей, которые могут представлять собой любую информацию. Головки жестких дисков для записи и чтения используются для ввода этих единиц и нулей путем намагничивания частей диска. В каждой крошечной части диска размещается бит, равный 1 или 0. Головка может определять магнетизм каждой части, считывая информацию с нее. Головка, которая может читать данные, способна также записывать их, изменяя намагниченность битов на диске.

    При каждом изменении, например при сохранении или удалении файла, головка жесткого диска соответствующим образом регулирует магнетизм жесткого магнитного диска. Представьте себе проигрыватель пластинок с виниловым диском в качестве жесткого магнитного диска, содержащего информацию, и тонармом в качестве головок, сканирующих информацию.

    Поскольку данные хранятся на магнитах, HDD не разрушаются при отключении питания, а это означает, что они сохраняют данные, даже когда компьютер выключен.

    Максимальная емкость современных внутренних HDD может достигать 20 ТБ. С момента появления SSD жесткие диски редко используются в качестве устройств длительного хранения данных в компьютере, но по-прежнему являются надежным вариантом внешнего накопителя.

    Что такое SSD?

    SSD (твердотельные накопители) — это новый тип жестких дисков. Это предпочтительный тип внутренних жестких дисков самых современных ноутбуков. SSD также используются во всех смартфонах и планшетах.

    В твердотельных накопителях применяется флеш-память, как и во флеш-накопителях USB, а также картах памяти для цифровых фотоаппаратов. Здесь нет никаких магнитов; в SSD используются полупроводники, которые хранят данные, изменяя электрическое состояние триллионов цепей, содержащихся в накопителе. Поскольку в SSD нет движущихся частей, они не только работают быстрее (так как вам не нужно ждать, пока диски начнут вращаться и головки считают информацию), но и служат дольше, чем HDD.

    SDD намного дороже в производстве, поэтому, хотя они все чаще используются в качестве основных дисковых накопителей для ноутбуков и ПК высокого класса, многие по-прежнему предпочитают жесткие диски как более дешевый внешний вариант.

    Краткая история жестких дисков

    После экспериментов с магнитной лентой как средством хранения данных в 1956 году команда IBM во главе с Рейнольдом Б. Джонсоном разработала первый коммерческий жесткий диск.

    Эта команда обнаружила, что можно хранить данные на намагниченных металлических дисках, которые позволяют перезаписывать информацию, что привело к созданию первой системы жестких дисков, известной как RAMAC (метод произвольного доступа для учета и контроля).

    Оригинальный жесткий диск был размером с два холодильника с 50 24-дюймовыми жесткими магнитными дисками, вращающимися со скоростью 1200 об./мин. Несмотря на габариты, емкость памяти RAMAC составляла всего 5 МБ (что примерно соответствует размеру одного фото, снятого смартфоном), и при столь малой емкости он стоил около 10 000 долларов за мегабайт.

    RAMAC находились в центрах хранения и обработки данных IBM, пока компания не представила съемные устройства для хранения данных в 1960-х годах. Дисковый накопитель IBM 1311 1962 года имел емкость 2,6 МБ на шести 14-дюймовых жестких магнитных дисках. Они были размером примерно с посудомоечную машину.

    Персональные настольные компьютеры появились в 70-х годах, и в это же время компания IBM начала разрабатывать первые гибкие диски. Дискеты, впервые выпущенные в 1971 году, стали первыми портативными магнитными дисками. Можно считать их первыми внешними жесткими дисками. Дискеты оставались стандартным решением для хранения данных до тех пор, пока на рубеже веков не стали широко использоваться перезаписываемые компакт-диски и флеш-накопители USB. Первый жесткий диск для чтения и записи для персональных компьютеров был выпущен в 1972 году компанией Memorex.

    К 1980 году многие крупные компании начали разрабатывать жесткие диски, и накопитель ST-506 от Shugart Technology с 5,25-дюймовыми пластинами и емкостью 5 МБ стал самым компактным HDD на то время. Тем временем компания IBM выпустила модель IBM 3380 — первый жесткий диск объемом 1 ГБ.

    В 1983 году компания Rodime представила модель RO352 — первый 3,5-дюймовый HDD с двумя дисками общей емкостью 10 МБ. 3,5-дюймовые жесткие диски и по сей день остаются стандартом для настольных компьютеров (а 2,5-дюймовые HDD — для ноутбуков).

    В 80-х годах знакомые нам внешние жесткие диски только начали разрабатывать, и со временем физический размер этих дисков уменьшился, а емкость увеличилась.

    Зачем нужен жесткий диск?

    В общем и целом жесткий диск нужен, чтобы хранить данные. На компьютере это все ваши фотографии, видео, музыка, документы и приложения; кроме того, код операционной системы вашего компьютера, программные платформы и драйверы также хранятся на жестких дисках. Емкость жесткого диска измеряется в мегабайтах (МБ), гигабайтах (ГБ) и терабайтах (ТБ).

    Жесткий диск отличается от ОЗУ (оперативной памяти), которая представляет собой устройство для временного хранения данных компьютера, требующее электропитания для этой цели, а следовательно, являющееся энергозависимым ЗУ, сохраняющим данные только при включенном компьютере. ОЗУ используется не для личных данных, а для функционирования компьютера. Чтобы вы могли работать без перебоев и переключаться между задачами и приложениями, начиная с того места, где закончили, вашему компьютеру требуется память. ОЗУ является устройством первичного (оперативного) хранения данных, а HDD и SSD относятся к категории устройств вторичного, или долговременного, хранения данных.

    Жесткий диск — это запоминающее устройство для хранения ваших файлов и данных в течение длительного времени. Сохраняя файл на свой компьютер, вы сохраняете его на жестком диске устройства. Жесткий диск — это картотечный шкаф для ваших цифровых файлов.

    Что такое внешний жесткий диск?

    Внешний жесткий диск — это жесткий диск, не встроенный в компьютер. Это портативное устройство, которое можно подключить к любому компьютеру, чтобы получить доступ к хранящимся на нем данным. В то время как внутренние жесткие диски напрямую подключены к материнской плате компьютера и хранят данные операционной системы, программных платформ, драйверы, программы, которыми вы пользуетесь, а также ваши файлы, внешние жесткие диски используются в основном для хранения личных файлов.

    Жесткий диск компьютера можно изымать и обновлять, но это сложная задача, поэтому многие люди используют внешние жесткие диски, когда на их компьютере не хватает места.

    В наши дни внешние жесткие диски могут вмещать до 20 ТБ данных, что более чем в миллион раз превосходит емкость самого первого жесткого диска в 1956 году. Благодаря такой вместимости в сочетании с портативностью и доступностью внешние жесткие диски стали лучшим решением для увеличения емкости компьютера до появления облачных хранилищ.

    Недостатки внешних жестких дисков для хранения данных

    По сравнению с простым использованием внутренней памяти компьютера внешние жесткие диски — практичное решение, но подразумевающее некоторые риски и ограничения, которые важно учитывать.

    Как внутренние, так и внешние HDD подвержены риску потери данных. Причиной этому могут быть попытки нарушения защиты вредоносными программами или вирусами либо повреждение и износ вследствие естественных причин, таких как чрезмерное воздействие солнечных лучей или высоких температур, попадание жидкостей, пыли или помехи от других магнитных полей.

    Большое количество сложных движущихся частей, благодаря которым работает жесткий диск, делает его весьма уязвимым для повреждений, особенно если вы носите его с собой. Если жесткий диск поврежден, возможно, вам все же удастся восстановить данные, хранящиеся на его магнитных пластинах, но это будет сложно и, вероятнее всего, недешево. HDD — один из наиболее хрупких внутренних компонентов компьютера по причине наличия в нем движущихся частей.

    Кроме того, обычный жесткий диск не защищен паролем или шифром, поэтому в случае его потери или кражи ваша личная информация может подвергаться опасности.

    Многие внешние жесткие диски поддерживают только определенные операционные системы либо лишь одну из них в конкретный промежуток времени. Если у вас MacBook и ПК с Windows, вы можете обнаружить, что ваш жесткий диск не обеспечивает чтение и запись на обоих устройствах, что может быть неудобно, если вы используете HDD для перемещения файлов с одного устройства на другое. Многие жесткие диски необходимо переформатировать, чтобы сконфигурировать их для записи в другой операционной системе, что приводит к потере всех данных.

    Использование облачного хранилища вместо жестких дисков


    Появление облачных хранилищ дало возможность не зависеть от ограничений и рисков жестких дисков. Облачные решения стали более безопасной и доступной альтернативой другим хранилищам данных. Сохранение файла в облаке означает, что он будет храниться онлайн, не занимая места на вашем устройстве.

    Dropbox предоставляет вам до 3 ТБ места в личном аккаунте практически для любых типов файлов и неограниченный объем места для аккаунтов Dropbox Business Advanced и Enterprise.

    Вместо того, чтобы покупать дополнительные внешние диски по мере их заполнения, вы можете просто увеличивать облачное хранилище, которое не занимает физическое пространство. Если вы храните файлы на разных внешних жестких дисках, нужный файл будет очень сложно найти. Облачное хранилище позволяет собрать все ваши файлы в едином месте. Вы сможете легко искать их и получать к ним доступ с любого устройства, подключенного к сети. Внешние жесткие диски, как правило, подключаются к компьютерам через USB, поэтому их можно подключать только к определенным устройствам, в то время как облачное хранилище доступно не только с ПК и ноутбуков, но и с планшетов и смартфонов.

    Dropbox использует серверы, размещенные в центрах хранения и обработки данных по всему миру. Вы не можете случайно уронить облако и повредить файлы в нем, как это могло бы произойти со внешним жестким диском, так как все данные оцифрованы и находятся в безопасности. В Dropbox файлы хранятся в зашифрованном защищенном пространстве, откуда гораздо сложнее украсть информацию, чем с обычного жесткого диска.

    Dropbox — безопасное и универсальное решение для резервного копирования и хранения файлов, которое позволяет сэкономить место на вашем компьютере и избавиться от хлопот и рисков, связанных с хранением важных данных на внешних жестких дисках.

    История компьютеров: хронология и эволюция — видео и стенограмма урока

    Ранние вычислительные устройства

    Попытки людей разработать инструмент для манипулирования данными начались еще в 2600 году до нашей эры, когда китайцы изобрели счеты. Логарифмическая линейка была изобретена в 1621 году и широко использовалась до появления электронных калькуляторов в 1970-х годах. Оба этих примера ранних устройств были механическими и в человеческом масштабе.

    В 1830 году английский математик Чарльз Бэббидж изобрел аналитическую машину , которая могла быть запрограммирована с помощью перфокарт для выполнения вычислений.Он отличался от своих предшественников, потому что он мог принимать решения на основе собственных вычислений, таких как последовательное управление, ветвление и цикл. Почти все используемые сегодня компьютеры следуют этой основной идее, изложенной Бэббиджем, поэтому его часто называют «отцом компьютеров». Аналитическая машина была настолько сложной, что Бэббидж так и не смог построить работающую модель своей конструкции. Наконец, более 100 лет спустя он был построен Лондонским музеем науки.

    Первые электронные компьютеры

    За этим последовало множество различных типов механических устройств, основанных на идее аналитического механизма.Самые первые электронные компьютеры были разработаны Конрадом Цузе в Германии в период с 1935 по 1941 год. Z3 был первым работающим, программируемым и полностью автоматическим цифровым компьютером. Оригинал был уничтожен во время Второй мировой войны, но копию построил Немецкий музей в Мюнхене. Поскольку в его устройствах реализованы многие концепции, которые мы все еще используем в современных компьютерах, Цузе часто называют «изобретателем компьютера».

    Примерно в то же время британцы построили компьютер Colossus для взлома зашифрованных немецких кодов для военных действий, а американцы построили анализатор и компьютер электронного числового интегратора, или ENIAC.Построенный между 1943 и 1945 годами, ENIAC весил 30 тонн, был 100 футов в длину и восемь футов в высоту. И Colossus, и ENIAC в значительной степени полагались на электронные лампы, которые могут действовать как электронный переключатель, который можно включать и выключать намного быстрее, чем механические переключатели, которые использовались до этого. Компьютерные системы, использующие электронные лампы, считаются первым поколением компьютеров.

    Однако вакуумные лампы потребляют огромное количество энергии, превращая компьютер в печь. Первый полупроводниковый транзистор был изобретен в 1926 году, но только в 1947 году он превратился в надежный твердотельный транзистор для использования в компьютерах.Подобно вакуумной лампе, транзистор управляет потоком электричества, но он был всего несколько миллиметров в размере и генерировал мало тепла. Компьютерные системы на транзисторах считаются вторым поколением компьютеров.

    Потребовалось несколько лет, чтобы транзисторная технология достигла зрелости, но в 1954 году компания IBM представила 650, первый компьютер массового производства. Сегодняшние компьютеры все еще используют транзисторы, хотя они намного меньше. К 1958 году стало возможным объединить несколько компонентов, включая транзисторы, и схемы, соединяющие их, на одном куске кремния.Это была первая интегральная схема. Компьютерные системы, использующие интегральные схемы, считаются третьим поколением компьютеров. Интегральные схемы привели к появлению компьютерных процессоров, которые мы используем сегодня.

    Персональные компьютеры

    Компьютеры быстро становятся более мощными. К 1970 году стало возможным сжать все интегральные схемы, входящие в состав одного компьютера, на одном кристалле, называемом микропроцессором. Компьютерные системы, использующие микропроцессоры, считаются четвертым поколением компьютеров.

    В начале 1970-х годов компьютеры все еще использовались в основном крупными корпорациями, государственными учреждениями и университетами. Первое устройство, которое можно было назвать персональным компьютером, было представлено в 1975 году. Altair 8800 был произведен компанией Micro Instrumentation and Telemetry Systems. Он включал процессор Intel 8080 и 256 байт памяти. Клавиатуры не было, вместо этого программы и данные вводились с помощью переключателей. Монитора не было, и вместо этого результаты считывались путем интерпретации узора маленьких красных огней.

    Этот компьютер в основном использовался любителями и хакерами, которые разбирали устройства и создавали свои собственные. Двое из этих хакеров, Стивен Джобс и Стив Возняк, создали в 1976 году персональный компьютер с клавиатурой, дисплеем и дисковым хранилищем. Они назвали его Apple I. Примерно в то же время два других хакера, Билл Гейтс и Пол Аллен, начали разрабатывать программное обеспечение для Altair 8800 и основали Microsoft.

    Другие компьютерные системы были разработаны Radio Shack и Commodore.Следующий прорыв произошел в 1981 году, когда IBM решила создать персональный компьютер или ПК. IBM PC, сделанный в основном из уже существующих компонентов, стал продуктом массового спроса отчасти потому, что его конструкция была доступна другим производителям. Операционная система IBM PC была MS-DOS от Microsoft.

    В 80-е годы наблюдался быстрый рост использования компьютерных систем. К середине 1980-х Apple и Microsoft выпустили операционные системы с графическим пользовательским интерфейсом. Именно тогда персональные компьютеры стали больше походить на устройства, которые мы используем сегодня.С тех пор произошло множество технологических достижений, и компьютеры стали более простыми в использовании, более надежными и намного более быстрыми, но основы работы персональных компьютеров были разработаны в этот период, примерно с 1970 по 1985 год.

    Тенденция в вычислительной мощности

    Одним из ключевых достижений в области вычислений стал рост вычислительной мощности. Современные компьютеры используют транзисторов , которые представляют собой микроскопические переключатели, управляющие потоком электричества. Эти переключатели могут быть включены или выключены, что позволяет хранить двоичную информацию.Больше транзисторов означает, что можно обработать больше информации. Возможности компьютеров выросли с одного транзистора в 1950-х годах до миллионов транзисторов в современных процессорах.

    Эта тенденция известна как закон Мура . Гордон Мур был одним из соучредителей Intel и описал тенденцию, согласно которой количество транзисторов в интегральных схемах удваивается примерно каждые два года. Он предсказал это еще в 1975 году, и до сих пор его предсказание оказалось довольно точным.

    Краткое содержание урока

    Хотя концептуальная идея компьютера была разработана в 19 веке, первый электронный компьютер был разработан в 1940-х годах. В ранних компьютерах использовались механические реле и электронные лампы, которые были заменены транзисторами , , а затем интегральными схемами, что привело к микропроцессорам, которые мы используем сегодня. Персональные компьютеры были представлены в 1970-х годах. Такие компании, как Apple, IBM и Microsoft, участвовали в разработке аппаратного и программного обеспечения, напоминающего современный компьютер.Компонент обработки компьютеров увеличился в соответствии с законом Мура , удваиваясь каждые два года.

    Результаты обучения

    После завершения этого урока вы должны уметь:

    • Вспомнить раннюю историю вычислений с машинами, начиная с счеты
    • Объясните создание аналитических машин для военных действий (1940-е годы)
    • Определите изменения, внесенные такими индивидуалистами, как Джобс, Возняк, Аллен и Гейтс.
    • Опишите достижения в области микропроцессоров

    (PDF) О появлении новых компьютерных технологий.

    339

    Корпорация Intel и Advanced Micro Devices Incorporation (AMD) являются ведущими отраслевыми конкурентами, которые постоянно бьют рекорды по быстродействию микропроцессоров со своими соответствующими продуктами. Миниатюризация компьютера — это

    навязчивая идея. Это подтверждается разработкой портативных устройств (КПК), встраиваемых систем, карманных компьютеров

    , мобильных компьютеров и т. Д. Планшетный ПК, например, обеспечивает всю мощность стандартного ноутбука

    плюс дополнительные функции, улучшающие мобильность, в том числе перьевой ввод, легкий форм-фактор, распознавание рукописного ввода и речи

    .

    Аспекты мэйнфреймов и суперкомпьютеров также активно развиваются. Развитые страны используют суперкомпьютеры

    в различных промышленных и экономических областях. Они используются для составления финансовых и экономических прогнозов, для разведки месторождений нефти и газа

    , для прогнозирования погоды и изменения климата, для решения транспортных проблем в больших

    городах, для управления логистикой в ​​крупных корпорациях, для выполнения различных расчетов аэродинамики. . Они

    также используются в фармацевтической промышленности, генетике человека, в астрономии, для управляемого ядерного синтеза, для моделирования взрывов и ядерных испытаний

    и в других сложных или вычислительных областях.

    Имея производительность почти вдвое выше, чем у Earth Simulator, в Иокогаме, Япония, IBM Blue Gene / L занимала

    , недавно заняв первое место в списке Top500 самых быстрых суперкомпьютеров в мире (PC World 2004). Чтобы не уступать

    , Окриджская национальная лаборатория США (ORNL) планирует создать еще более быстрый компьютер. Кроме того,

    Россия создала новую суперкомпьютерную машину Skif K-1000, которая в настоящее время (декабрь 2004 г.) описывается как

    как самое мощное вычислительное устройство в Восточной Европе.

    «Электронная мутация» теперь является фактором выживания нескольких компонентов компьютерного оборудования. Например,

    — знакомый параллельный порт, используемый для подключения принтеров, вскоре может полностью уступить место порту универсальной последовательной шины

    (USB). Плоские экраны заменяют обычные мониторы, для ПК были разработаны адаптеры для настройки радио и телевидения.

    . Компьютер адаптирован как для офисного, так и для домашнего использования. Это не только рабочий инструмент или помощник

    , но и мультимедийный развлекательный центр для игр, музыки и видео.Лучше и дешевле

    Аксессуары для ПК, такие как мощные колонки и веб-видеокамеры, выпускаются ежедневно.

    Развитие программного обеспечения

    Компьютерный язык программирования — это формальная нотация для точного описания и кодирования алгоритмических

    решений проблем. Алгоритм — это просто завершающая пошаговая процедура для актуализации задачи. Основное программное обеспечение

    , которое служит основным пользовательским интерфейсом и контролирует управление всеми задачами и ресурсами системы

    , известно как операционная система (ОС).Другое прикладное программное обеспечение — это в основном служебные программы для конечных пользователей. Начиная с

    и

    перфокарт жаккардового ткацкого станка, программирование также эволюционировало с улучшением конструкции аппаратного обеспечения

    . Программисты использовали языки Machine, Assembly и High Level (человеческие). Различные языки программирования

    имеют конструкции для поддержки средств, необходимых для решения проблем в определенных областях.

    Например, COBOL поддерживает решение проблем, связанных с бизнесом, C — для задач системного программирования,

    FORTRAN (и более поздние версии MATLAB, LABVIEW и т. Д.).) для научных вычислений и Lisp / Prolog для приложений искусственного интеллекта

    . Пакеты программного обеспечения CADD-CIM, такие как AutoDesk’s AutoCAD®, были разработаны для интеграции

    с станками с ЧПУ. Хотя Apple Macintosh представила программное обеспечение с графическим пользовательским интерфейсом

    (GUI), именно ОС Microsoft Windows® и совместимые продукты оказались более успешными на рынке

    место. Для быстрой разработки приложений

    были представлены визуальные инструменты, такие как Microsoft Visual Basic®, Borland Delphi® и т. Д.Язык гипертекстовой разметки (HTML) и его новые варианты, такие как Extensible Markup

    Language (XML) и Wireless Markup Language (WML), были разработаны для доступа в Интернет с ПК

    и мобильных устройств. В последнее время Sun Microsystems Java® рекламируется как более портативная и надежная система разработки

    .

    На арене программного обеспечения есть две конкурирующие модели: проприетарные решения и решения с открытым исходным кодом. Программное обеспечение (ОС и

    других программ), защищенное авторским правом и предлагаемое (в основном коммерчески) в соответствии с соглашениями о неразглашении, составляет

    , как правило, лицензируется собственниками \ разработчиками конечным пользователям, в то время как те, которые выдают (в основном бесплатно), с

    сопутствующий исходный код для модификации пользователем называется открытым исходным кодом.UNIX и Microsoft Windows® (и

    их производные) — две доминирующие операционные системы, для которых разрабатываются прикладные программы.

    Вычислительная техника применяется практически во всех сферах человеческой деятельности, таких как связь, образование, дизайн

    и производство, банковское дело, коммерция, развлечения, здравоохранение, спорт, безопасность, война, управление,

    исследования и прогноз погоды, управление дорожным движением и транспорт, освоение космоса и т. д.Компьютер

    — это универсальный инструмент, без которого современный мир не может обойтись.

    Первоначально вычисления ограничивались символьной логикой и вычислением математических выражений. За последние

    десятилетий появились новые интеллектуальные вычислительные методы, парадигмы и приложения, такие как Expert

    История вычислений — это одновременно эволюция и революция

    В этом месяце исполняется 60 лет со дня выпуска первого компьютера в австралийском университете.Мельбурнский университет получил машину от CSIRO, и 14 июня 1956 года вновь введенный в эксплуатацию CSIRAC был официально включен. Шесть десятилетий спустя наша серия «Вычислительная техника, исполняющая 60 лет» рассказывает о том, как все изменилось.


    Это трюизм, что вычисления продолжают изменять наш мир. Он определяет, как создаются объекты, какую информацию мы получаем, как и где мы работаем, а также с кем встречаемся и с кем ведем дела. А вычисления меняют наше понимание мира вокруг нас и Вселенной за его пределами.

    Например, в то время как компьютеры изначально использовались в прогнозировании погоды как не более чем эффективный способ для сбора данных наблюдений и проведения расчетов, сегодня наше понимание погоды почти полностью опосредовано вычислительными моделями.

    Другой пример — биология. Если раньше исследование проводилось полностью в лаборатории (или в естественных условиях), а затем фиксировалось в модели, то теперь оно часто начинается с прогнозной модели, которая затем определяет, что можно исследовать в реальном мире.

    Преобразование, связанное с вычислениями, часто называют цифровым прорывом.Но аспект этой трансформации, который можно легко упустить из виду, заключается в том, что вычисления разрушают сами себя.

    Эволюция и революция

    Каждая волна новых вычислительных технологий имела тенденцию приводить к новым типам систем, новым способам создания инструментов, новым формам данных и так далее, которые часто опровергали своих предшественников. То, что казалось эволюцией, в некотором смысле является серией революций.

    Но развитие компьютерных технологий — это больше, чем цепочка инноваций — процесс, который был отличительной чертой физических технологий, которые формируют наш мир.

    Например, существует цепочка вдохновения от водяного колеса к паровому двигателю и двигателю внутреннего сгорания. В основе этого лежит процесс включения. Отрасль строительства паровых машин дала возможность получить навыки, материалы и инструменты, которые использовались при создании первых двигателей внутреннего сгорания.

    В вычислительной технике происходит что-то более богатое, когда появляются новые технологии, не только за счет замены предшественников, но и за счет их охвата. Вычислительная техника создает платформы, на которых она изобретает себя заново, достигая следующей платформы.

    Подключение

    Пожалуй, самым драматичным из этих нововведений является Интернет. В 1970-х и 1980-х годах произошел независимый прогресс в доступности дешевых и быстрых вычислений, доступных дисковых хранилищ и сетей.

    Рон Боулз на IBM 7044, машине для пакетной обработки с накопителем на магнитной ленте, около 1969 года. Мельбурнский университет, автор предоставил

    Вычислительные ресурсы и хранилище использовались в персональных компьютерах, которые на тот момент были автономными и почти полностью использовались для игр и обработки текстов.В то же время сетевые технологии получили широкое распространение на университетских факультетах компьютерных наук, где они впервые позволили совместную разработку программного обеспечения.

    Это было появление культуры разработки с открытым исходным кодом, в которой широко распространенные сообщества не только использовали общие операционные системы, языки программирования и инструменты, но и совместно вносили свой вклад в их развитие.

    По мере распространения сетей инструменты, разработанные в одном месте, можно было быстро продвигать, распространять и развертывать в других местах.Это резко изменило представление о праве собственности на программное обеспечение, о том, как программное обеспечение было разработано и создано, и о том, кто контролирует среду, которую мы используем.

    Сами сети стали более единообразными и взаимосвязанными, создав глобальный Интернет, инфраструктуру цифрового трафика. Увеличение вычислительной мощности означало, что появились свободные мощности для удаленного предоставления услуг.

    Падение стоимости диска означало, что системные администраторы могли выделить хранилище для размещения репозиториев, к которым можно было получить глобальный доступ.Таким образом, Интернет использовался не только для форумов электронной почты и чатов (известных тогда как группы новостей), но и все чаще в качестве механизма обмена данными и кодом.

    Это резко контрастировало с системами, которые использовались в бизнесе в то время, которые были индивидуализированными, изолированными и жесткими.

    Оглядываясь назад, можно сказать, что слияние сетей, вычислений и хранилищ в начале 1990-х годов в сочетании с культурой обмена с открытым исходным кодом кажется почти чудесным. Среда, готовая к чему-то замечательному, но без даже намека на то, что это может быть.

    «Супермагистраль»

    Именно для улучшения этой среды тогдашний вице-президент США Эл Гор предложил в 1992 году «информационную супермагистраль», еще до того, как появилось какое-либо крупное коммерческое или социальное использование Интернета.

    Тим Бернерс-Ли изобрел всемирную паутину как важный инструмент для физики высоких энергий в ЦЕРНе с 1989 по 1994 год. Фотографии Flickr / ITU, CC BY-NC-ND

    Между тем, в 1990 году исследователи из ЦЕРНа, в том числе Тим Бернерс-Ли, создали систему для хранения документов и их публикации в Интернете, которую они назвали всемирной паутиной.

    По мере распространения знаний об этой системе в Интернете (передаваемых новой моделью систем с открытым исходным кодом) люди начали использовать ее через все более сложные браузеры. Они также начали писать документы специально для онлайн-публикации, то есть веб-страницы.

    По мере того, как веб-страницы стали интерактивными, а ресурсы переместились в онлайн, Интернет стал платформой, которая изменила общество. Но это также изменило вычисления.

    С появлением Интернета важность автономных компьютеров, зависящих от локального хранилища, снизилась.

    Мы все соединяем

    Ценность этих систем объясняется еще одним слиянием: появлением в сети огромного количества пользователей. Например, без поведения, на котором можно было бы учиться, поисковые системы не работали бы должным образом, поэтому человеческие действия стали частью системы.

    Есть (спорные) рассказы о постоянно улучшающихся технологиях, но также и совершенно бесспорный рассказ о трансформации самих вычислений из-за того, что они так глубоко укоренились в нашей повседневной жизни.

    Это во многом суть больших данных.Компьютеры подпитываются потоками человеческих данных: данные о трафике, рейсах авиакомпаний, банковских транзакциях, социальных сетях и так далее.

    Сложности дисциплины резко изменились благодаря этим данным, а также благодаря тому факту, что продукты данных (такие как контроль трафика и целевой маркетинг) оказывают непосредственное влияние на людей.

    Программное обеспечение, которое надежно работает на одном компьютере, сильно отличается от программного обеспечения с высокой степенью быстрого взаимодействия с человеческим миром, что порождает потребности в новых видах технологий и экспертов, причем способы, которые даже отдаленно не ожидаются исследователями, которые создали технологии, которые привели к этой трансформации.

    Решения, которые когда-то принимались с помощью алгоритмов, закодированных вручную, теперь полностью основываются на обучении на данных. Целые области обучения могут устареть.

    Дисциплина действительно нарушает сама себя. И по мере того, как прибудет следующая волна технологий (иммерсивные среды? Цифровые имплантаты? Осведомленные дома?), Это повторится снова.

    Сетевые компьютеры, Интернет-устройства и подключенные ПК: Коул, Бернард Конрад: 9780138978693: Amazon.com: Книги


    * Ощутите революцию в сфере сетевых вычислений изнутри!
    * Охватывает все разновидности сетевых вычислительных устройств.
    * Клиенты, серверы и внутренняя инфраструктура.
    * Сетевые мультимедиа: будущее Интернета.

    Традиционные ПК ушли в прошлое: будущее за сетецентрическими вычислениями. Но в какой форме? Вычислительные устройства, «подключенные ПК», телеприставки с доступом в Интернет, веб-телефоны, беспроводные коммуникаторы, подключенные к Интернету, или сетевые компьютеры на базе Java? Все они или что-то совсем другое? С какими проблемами сталкиваются профессионалы, которые хотят создавать, планировать или инвестировать в эти новые системы? Теперь отмеченный наградами редактор Бернард Коул, освещающий сетецентрические вычисления для журнала Electrical Engineering Times, дает самую свежую картину всей отрасли с высоты птичьего полета.Он представляет все передовые подходы и рассматривает все эти важные технологические вопросы:


    * Масштабирование Интернета для поддержки сетевых вычислений.
    * Плюсы, минусы и альтернативы Java в сетевых вычислительных устройствах.
    * Роль распределенных объектов, включая CORBA и COM.
    * Сетецентрические операционные системы: OS-9000, DAVID, pSOS +, VxWorks, VRTX, PowerTV, Java OS и Windows CE 2.0.
    * Процессоры RISC и CISC: x86, ARM, picoJava, Shaboom и другие альтернативы.
    * Supercharging I / O: RSVP, параллелизм, I2O и другие ключевые стратегии.

    Коул предлагает новое понимание сложных проблем, с которыми сталкивается сетецентрическая вычислительная индустрия, включая безопасность, тестирование, обслуживание и надежность. Он рассматривает масштабные усовершенствования инфраструктуры и технологий, необходимые для поддержки сетевого мультимедиа в реальном времени, включая MPEG4, RTSP, VRML, Java3D, MMX и его конкурентов, а также 64-битные процессоры. Наконец, он анонсирует новые веб-ориентированные пользовательские интерфейсы завтрашнего дня, призванные не дать пользователям «потеряться в Сети».«С необычайной широтой и глубиной Коул сделал то, что другие считали невозможным: он разобрал смысл будущего сетецентрических вычислений.

    БЕРНАР КОУЛ (BERNARD COLE) — старший технический редактор журнала «Встраиваемые системы / сетевые вычисления» журнала Electronic Engineering Times, а также обладатель награды «Выдающиеся редакционные достижения» от McGraw-Hill за специальный отчет об электронике в 2000 году. Он является автором книги Beyond Word Обработка: использование вашего персонального компьютера в качестве обработчика знаний. Коул проживает во Флагстаффе, штат Аризона, с ним можно связаться по адресу bcole @ cmp.

    Хронология того, как компьютеры изменили историю и бизнес, каким мы его знаем

    Компьютеры претерпели значительные изменения за десятилетия своего существования. Много лет назад в своей элементарной форме компьютеры были очень большими и медленными. Постепенно компьютеры становились меньше и быстрее, что позволяло людям использовать их практически где угодно. Новые компьютерные технологии также позволили решить более сложные бизнес-задачи. Например, по мере роста списка адресов электронной почты профессионал теперь может использовать базу данных электронной почты генерального директора, чтобы привлечь больше потенциальных клиентов.Узнайте больше о том, как компьютеры развивались и создавали более взаимосвязанный мир.

    • 1937 : Джордж Стибиц, ученый Bell Laboratories, придумал использование реле в качестве демонстрационного сумматора. Стибиц назвал эту схему сумматором «Модель К», потому что он создал ее дома на кухонном столе.
    • 1939 : Билл Хьюлетт и Дэйв Паккард основали Hewlett-Packard в арендованном гараже в Пало-Альто, Калифорния. Гараж был местом исследований, разработок и производства первых продуктов, произведенных новой компанией.
    • 1941 : Конрад Цузе, немецкий инженер, разработал компьютер Z3. Этот компьютер был способен выполнять двоичную математику с плавающей запятой.
    • 1944 : Австрийский инженер по имени Курт Херцштарк провел свое время в концентрационном лагере Бухенвальд, работая над предварительными проектами четырехфункционального калькулятора. После освобождения он приступил к созданию калькулятора.
    • 1948 : Исследователи из Манчестерского университета разработали «Manchester Baby», машину, предназначенную для тестирования технологии памяти.Исследователи написали и запустили первую компьютерную программу для Manchester Baby.
    • 1950 : Компания Remington-Rand создала ERA 1101, один из первых в мире компьютеров, выпускаемых серийно. Эта система содержала 1 миллион бит на внутреннем магнитном барабане.
    • 1951 : UNIVAC 1 начал привлекать внимание публики. Этот компьютер весил 29 000 фунтов и содержал 5200 электронных ламп.
    • 1957 : Исследователям Массачусетского технологического института удалось создать программируемый компьютер, содержащий транзисторы.Этот компьютер был разработан для общих целей.
    • 1958 : Система SAGE соединила 23 отдельных компьютерных узла по всей территории Соединенных Штатов и Канады. Целью SAGE было обнаружение приближающихся советских ракет.
    • 1961 : Были спроектированы транзисторные компьютеры, способные выполнять текущие расчеты положения в полете. Эти системы наведения ракет Minuteman I были высокоразвитыми для того времени.
    • 1962 : Компьютер Atlas был запущен в сеть.Этот компьютер был быстрым, и это была первая система, использующая виртуальную память, которая была связана с основной памятью компьютера.
    • 1964 : IBM выпустила пять различных моделей System / 360 с разной производительностью. IBM нацелена на заказчиков из науки и бизнеса этими компьютерами.
    • 1965 : Olivetti Programma 101 поступила в продажу. Этот калькулятор может выполнять основные математические процессы, а также вычислять квадратные корни.
    • 1968: Эксперты приборной лаборатории Массачусетского технологического института разработали компьютер управления Apollo. Эта новая система была значительно меньше — всего 70 фунтов.
    • 1971 : Микропроцессор Intel 4004 был первым изобретением такого рода. 4004 продавался по цене 200 долларов.
    • 1976 : Cray-1 был самым быстрым компьютером своего времени. Однако производство этих компьютеров было далеко не быстрым: сборка каждого компьютера занимала целый год.
    • 1976 : Стив Возняк сыграл важную роль в разработке и выпуске одноплатного компьютера Apple-1. Было продано всего около 200 машин.
    • 1977 : Apple-II был выпущен для широкой публики. В период с 1977 по 1993 год Apple продала миллионы этих компьютеров.
    • 1977 : Тэнди произвела самый первый настольный компьютер. Radio Shack продала 10 000 таких систем, которые понравились начинающим пользователям.
    • 1979 : Atari выпустила два игровых микрокомпьютера, Model 400 и Model 800.Эти компьютеры составляли прямую конкуренцию компьютеру Apple-II.
    • 1981 : IBM выпустила самый первый ПК IBM для широкой публики. На этих компьютерах использовалась операционная система Microsoft MS-DOS.
    • 1982 : Commodore представила публике свой компьютер C64. Эта компьютерная система имела 64 КБ оперативной памяти и графику, основанную на передовых технологиях.
    • 1984 : Apple использовала рекламу Суперкубка 1984 года, чтобы представить компьютер Macintosh.Macintosh был первым компьютером, в котором использовалась мышь.
    • 1986: Compaq первой выпустила компьютер с чипом Intel 80386. Deskpro 386 имел 32-битный микропроцессор.
    • 1988 : Стив Джобс выпускает NeXT Cube. Этот компьютер имел 8 Мбайт оперативной памяти и магнитооптический дисковод.
    • 1991 : Apple изменила дизайн своих портативных компьютеров и выпустила PowerBook. Три разные модели предлагали различные функции.
    • 1993 : портативные компьютеры сделали шаг вперед с выпуском Apple Newton.Это устройство называлось персональным информационным помощником или КПК.
    • 1993 : Intel выпустила микропроцессор Pentium, который был пятым поколением микропроцессоров. Компьютерные программы могли работать быстрее с этим оборудованием.
    • 1996 : Palm Pilot вышел на сцену как новый КПК с инновационными возможностями. Потребители смогли подключить Palm Pilot к компьютеру для синхронизации отдельных систем.
    • 1996 : Sony Vaio была новой линейкой компьютеров с новым трехмерным интерфейсом.Sony прекратила выпуск Vaio в 2014 году.
    • 2000 : Японская компания представила первый телефон с камерой. Разрешение этой камеры составляло 0,11 мегапикселя.
    • 2002 : Правительство Японии создало Симулятор Земли, который представлял собой суперкомпьютер. Этот компьютер был самым быстрым компьютером в мире с 2002 по 2004 год.
    • 2005 : Китайская компания Lenovo приобрела бизнес IBM по производству ПК. Основной причиной покупки было получение доступа к линейке компьютеров ThinkPad.
    • 2007 : Amazon выпустила Kindle, новую электронную систему чтения. В конструкции был предусмотрен слот для SD-карты для расширения памяти.
    • 2007 : Apple представила миру iPhone. Этот сотовый телефон предлагал несколько функций, таких как просмотр Интернета, музыка и телефон.
    • 2008 : популярный MacBook Air с множеством новых возможностей. Apple удалось уменьшить общий размер устройства за счет уменьшения размера жесткого диска.
    • 2010 : Дисплей Retina от Apple отличается передовой графикой и технологиями отображения. Retina Display имеет плотность пикселей, превышающую способность глаза различать отдельные пиксели.
    • 2010 : Apple выпустила первый iPad. Это мобильное устройство предлагало большой экран без возможностей телефона.
    • 2012 : Raspberry Pi выпустил компьютер размером с кредитную карту. Этот крошечный компьютер весил 45 граммов.
    • 2015: Apple еще больше уменьшила размер своего компьютера с выпуском Apple Watch.Это устройство совместимо как с iPhone, так и с MacBook.

    Добавил Гэри Тейлор

    Исследование появления и развития компьютера и его последствий с точки зрения подхода к медиатизации

    Подход к медиатизации эмпирически и теоретически рассматривает текущее, а также историческое развитие средств массовой информации и связанные с этим изменения в повседневной жизни. , культура и общество. Следуя Стюарту Холлу (цитируется по Procter, 2004), исследования медиатизации можно понимать как нацеленные на практическое вмешательство гражданского общества в развитие.Явления и процессы на микро-, мезо- и макроуровнях называются медиатизированными, если их невозможно объяснить или понять без учета среды (Krotz 2017). Что касается оцифровки, исследования медиатизации, соответственно, заинтересованы в реконструкции сегодняшних коммуникативных практик и их рамочных условий в их возникновении и развитии и, таким образом, в понимании оцифровки на основе того, как она возникла.

    Таким образом, отправной точкой теоретико-медиатизационного подхода к анализу современной оцифровки является анализ ее технологической основы, а именно компьютера как устройства обработки символов, и вопрос о том, как условия его происхождения влияют на значимость оцифровки сегодня. .Возникновение, развитие и распространение компьютерных и компьютерных технологий можно описать в пять этапов на основе существующих исследований в области социальных наук (например, эмпирических исследований и исторического анализа согласно Friedman 2005):

    # Его изобретение как машины обработки данных в контексте капиталистического разделения интеллектуального труда Чарльзом Бэббиджем около 1830 года,

    # его техническая реализация Конрадом Цузе, а также Говардом Эйкеном и IBM с 1930 года и появление культуры мэйнфреймов,

    # первое распространение через строительство домашних и персональных компьютеров

    # второе окончательное распространение через Интернет и преобразование его использования в устройство связи, вместе с коммерциализацией Интернета,

    # растущее проникновение всей аналоговой технологии, а также растущее вмешательство компьютеров во все формы жизни человека и появление управляемой компьютером инфраструктуры операций с символами.

    Лекция проследит это развитие и сделает выводы о социальном и культурном развитии форм человеческого сосуществования в контексте растущего присутствия и важности компьютера. Можно показать, что разделение труда, уже предусмотренное Бэббиджем, до сих пор определяет людей как производителей данных, а компании как обработчиков данных. Появляются новые коммуникативные возможности такого разнообразия, но их использование происходит в условиях всесторонней зависимости и огромного влияния новых глобальных компаний, таких как Amazon и Apple, Facebook, Google, Uber и других.Возникающие таким образом новые структуры власти оказывают всестороннее влияние на условия жизни людей, например, на журналистику и демократию, но также и на то, как люди взаимодействуют друг с другом. Это поднимает вопрос о том, как на эти события можно повлиять таким образом, чтобы это было совместимо с демократией.

    Литература

    Фридман, Тед (2005): Электрические мечты. Компьютеры в американской культуре. Нью-Йорк: издательство Нью-Йоркского университета

    Кротц, Фридрих (2017): Объяснение подхода к медиатизации.В JAVNOST — THE PUBLIC Vol. 24,2, 2017, с. 103-118.

    Проктер, Джеймс (2004): Стюарт Холл. Нью-Йорк: Рутледж

    IBM100 — темно-синий

    11 мая 1997 г. компьютер IBM под названием IBM ® Глубокий синий ® обыграли чемпиона мира по шахматам в матче из шести партий: две победы для IBM, одна для чемпиона и три ничьи. Матч длился несколько дней и получил широкое освещение в СМИ по всему миру. Это была классическая сюжетная линия «человек против машины».Однако за конкурсом стояла важная информатика, которая подтолкнула компьютер к тому, чтобы выполнять сложные вычисления, необходимые для открытия новых медицинских препаратов; выполнить широкое финансовое моделирование, необходимое для выявления тенденций и анализа рисков; обрабатывать поиск по большим базам данных; и выполнять масштабные вычисления, необходимые во многих областях науки.

    С появлением искусственного интеллекта и первых компьютеров в конце 1940-х гг. Компьютерные ученые сравнили производительность этих «гигантских мозгов» с человеческим разумом и тяготели к шахматам как способу проверки вычислительных способностей компьютеров.Игра представляет собой набор сложных задач для разума и машин, но имеет простые правила, поэтому идеально подходит для таких экспериментов.

    С годами многие компьютеры взяли на себя многие шахматные мастера, а компьютеры проиграли.

    Компьютерные специалисты IBM интересовались шахматными вычислениями с начала 1950-х годов. В 1985 году аспирант Университета Карнеги-Меллона Фэн-сюн Сюй начал работу над своим диссертационным проектом: шахматной машиной, которую он назвал ChipTest. Его однокурсник, Мюррей Кэмпбелл, тоже работал над проектом, и в 1989 году оба были приняты на работу в IBM Research.Там они продолжили свою работу с помощью других компьютерных ученых, в том числе Джо Хоана, Джерри Броуди и К. Дж. Тана. Команда назвала проект Deep Blue. Чемпион по шахматам среди людей победил в 1996 году более раннюю версию Deep Blue; матч 1997 года был объявлен «матчем-реваншем».

    Чемпион и компьютер встретились в Equitable Center в Нью-Йорке, где работали камеры, присутствовала пресса, и миллионы людей наблюдали за результатом. Шансы на победу Deep Blue не были точными, но наука была твердой.Сотрудники IBM знали, что их машина может исследовать до 200 миллионов возможных шахматных позиций в секунду. Шахматный гроссмейстер выиграл первую партию, Deep Blue выиграл следующую, а два игрока сыграли вничью в следующих трех партиях. Шестая игра завершилась разгромным поражением чемпиона от Deep Blue.

    Результат матча стал заголовком во всем мире и помог широкой аудитории лучше понять мощные вычисления. Матч 1997 года проходил не на стандартной сцене, а в небольшой телестудии.Зрители наблюдали за матчем на телеэкранах в подвальном помещении в здании, несколькими этажами ниже, где фактически проходил матч. Театр вмещал около 500 человек, билеты на каждую из шести игр были аншлагами. Внимание СМИ, уделяемое Deep Blue, вылилось в более трех миллиардов просмотров по всему миру.

    Deep Blue оказал влияние на вычислительную технику во многих различных отраслях. Он был запрограммирован для решения сложной стратегической игры в шахматы, поэтому он позволил исследователям исследовать и понять пределы массовой параллельной обработки.Это исследование дало разработчикам представление о том, как они могут спроектировать компьютер для решения сложных проблем в других областях, используя глубокие знания для анализа большего количества возможных решений. Архитектура, используемая в Deep Blue, применялась к финансовому моделированию, включая рыночные тенденции и анализ рисков; интеллектуальный анализ данных — выявление скрытых взаимосвязей и закономерностей в больших базах данных; и молекулярная динамика, ценный инструмент, помогающий открывать и разрабатывать новые лекарства.

    В конечном итоге Deep Blue был отправлен в Смитсоновский музей в Вашингтоне, округ Колумбия, но IBM продолжала создавать новые типы компьютеров с массовым параллелизмом, такие как IBM Blue Gene. ® .[Подробнее об этом Иконе прогресса.]

    Проект Deep Blue вдохновил IBM на недавнюю грандиозную задачу: создать компьютер, который мог бы побеждать чемпионов в более сложной игре, Опасность! .

    В течение трех ночей февраля 2011 года эта машина по имени Ватсон сразила двух самых успешных игроков в истории игры и победила их на глазах у миллионов телезрителей. Технология Watson была значительным шагом вперед по сравнению с Deep Blue и более ранними машинами, потому что в ней было программное обеспечение, которое могло обрабатывать и анализировать естественный язык, а затем полагаться на массивный объем информации, поступающей в него за несколько месяцев до соревнований.Уотсон продемонстрировал возможность взаимодействия человека с машиной целого нового поколения.

    .

    Leave a comment