Желание автоматизировать сложные рутинные вычисления явилось «госзаказом» на создание электронно-вычислительной машины. Но практическому воплощению мечты человека по созданию «искусственного разума» предшествовала кропотливая теоретическая подготовка.
Одним из важных «попутных» открытий было то, что ЭВМ – хотя и названа электронно-ВЫЧИСЛИТЕЛЬНОЙ машиной (кстати, слово компьютер происходит от англ. compute – считать, подсчитывать; вычислять) – может не только вычислять, но и всячески обрабатывать» всевозможную информацию. Поэтому возможности компьютера намного превосходят возможности арифмометров и «куркуляторов»: фактически возможности компьютера ограничены нашим воображением (а возможности нашего воображения безграничны!).
Работа над теоретическим обоснованием компьютера шла двумя параллельными потоками: обоснование аппаратной части и обоснование программной части. Но поскольку компьютер работает с информацией, для начала нужно было разобраться, что это такое – информация?
Один из создателей математической теории информации – амер. инженер и математик Шеннон Клод Элвуд (Claude Shannon; 1916–2001) – в 1948 г. опубликовал работу «Математическая теория связи», в которой представил свою унифицированную теорию передачи и обработки информации. По Шеннону, информация включает все виды сообщений, в том числе те, которые передаются по нервным волокнам в живых организмах. Шеннон предложил измерять информацию в математическом смысле, сводя ее к выбору между двумя значениями, или двоичными разрядами, — «да» или «нет» (1 или 0, истина или ложь, есть сигнал или нет сигнала, замкнута цепь или разомкнута).
С подачи Шеннона в компьютерах используется двоичная система счисления, которая основана на двух цифрах, «0» и «1». Информация любого типа может быть закодирована с использованием этих двух цифр и помещена в оперативную или постоянную память компьютера. Использование двоичной системы счисления (впервые принцип двоичного счисления был сформулирован в XVII в. немецким математиком Готфридом Лейбницем) позволяет сделать устройство компьютера максимально простым.
Параллельно с Шенноном американский математик и философ Норберт Винер (Norbert Wiener; 1894-1964) работает над созданием кибернетики и теории искусственного интеллекта.
Кибернетика – это наука об общих закономерностях процессов управления и передачи информации в машинах, живых организмах и обществе. Кибернетика разрабатывает общие принципы создания систем управления и систем для автоматизации умственного труда. Основные технические средства для решения задач кибернетики – ЭВМ. Поэтому возникновение кибернетики, как самостоятельной науки, связано с созданием в 40-х гг. XX в. ЭВМ, а развитие кибернетики в теоретических и практических аспектах – с прогрессом электронной вычислительной техники.
В 1948 г. выходит книга Винера «Кибернетика, или Управление и связь в животном и машине».
Одним из первых отечественных ученых, оценивших значение кибернетики, был рос. математик А.А. Ляпунов (1911–1973). Под его руководством начались первые в нашей стране работы по кибернетике. В конце 1950-х гг. Ляпунов сформулировал основные направления развития кибернетики, на основе которых в последующие десятилетия получили развитие общие и математические основы кибернетики, вычислительные машины, программирование и другие направления науки, разработал математическую теорию управляющих систем. Ляпунов создал первые учебные курсы программирования и разработал операторный метод программирования. Заложил основы машинного перевода и математической лингвистики, биологической кибернетики и математических методов в биологии.
В работах Шеннона и Винера давались общие толкования термина «информация». Количественные характеристики информации – энтропия и количество информации – стали математическими понятиями в работах российского математика А.Я. Хинчина (1894-1959).
В середине 50-х гг. XX в. общее определение количества информации в вероятностном смысле было дано в работах российского математика Колмогорова А.Н. (1903–1987).
|