Реферат на тему: «Мышление. Мозг и компьютер» Содержание Введение 1. Пирамида языков 2. Программистские аналогии 4 3. Две логики 5 4. Как исчислять идеи? 5. Мозг и компьютер 6. Биокомпьютер 7 7. «Виртуальная реальность» 12 Список использованной литературы 15 Введение Отличительное свойство мышления заключено, наверное, в способности достигать определенной цели,
то есть находить нужный вариант среди других, в принципе допустимых, но не приводящих к требуемому результату. Например, если у обезьяны в клетке есть куча различных предметов, но достать банан она может, лишь выбрав из кучи ящик, чтобы встать на него, и палку, чтобы сбить банан, то мы судим об интеллекте обезьяны по тому, как она справляется с выбором. Допустимые варианты – это комбинации некоторых элементов: действий в практических вопросах, умозаключений в доказательствах, красок и звуков в искусстве.
Может быть, чтобы получить искомое сочетание, надо просто перебирать варианты один за другим и отбрасывать все негодные? Бесплодность такого подхода следует из простого факта, называемого в кибернетике комбинаторным взрывом. Дело в том, что если элементы могут свободно группироваться друг с другом, то общий набор сочетаний растет (с увеличением числа элементов в наборе) крайне быстро, экспоненциально. Так, при алфавите всего из десяти символов можно составить 10100 текстов длиной по сто букв!
Машине, просматривающей даже миллиард миллиардов таких стобуквенных слов в секунду (конечно, это фантастическая скорость), для полного обозрения их понадобится около 1074 лет. Для сравнения, время, прошедшее после космологического Большого взрыва – «всего лишь» 1010. Поэтому испытать все варианты не под силу ни «медлительному» человеческому уму, ни сколь угодно совершенному компьютеру. И все же каким то образом возникают уникальные тексты
из многих сотен и тысяч знаков (в музыке Моцарта нельзя тронуть ни одну ноту). В поиске таких новых и незаменимых комбинаций состоит суть творчества. «Но ведь где то есть он в конце концов, тот – единственный, необъяснимый, тот – гениальный порядок звучащих нот, гениальный порядок обычных слов!» (Р. Рождественский). Значит, должны существовать способы отыскания «иголки» нужного без полного перебора «стога сена» возможного. Концепция
Л.И.Верховского позволяет определить подходы для формализации такого процесса. 1. Пирамида языков Ясно, что построение искомой комбинации было бы невозможно, если б оно сразу начиналось на уровне тех элементов, на котором оно окончательно должно быть выражено – назовем этот уровень языком реализации. Ведь для сочинения романа недостаточно знания букв, а для того, чтобы добраться до нужного адреса, – правил уличного движения. Поэтому мы всегда используем не один язык, а целый их набор.
С помощью этого набора пытаемся решить проблему в общем, то есть свести ее к ряду подпроблем, те – к еще более мелким, и так до тех пор, пока каждая из них не будет настолько проста, что сможет быть выражена на языке реализации. Фактически мы одну сложную задачу последовательно разбиваем на все большее число все более легких. Как если бы при прокладке маршрута пользовались бы комплектом карт разного масштаба. В самом деле, определяя путь, мы начинаем с самой грубой карты, охватывающей весь маршрут.
От нее переходим к небольшому набору более подробных, от каждой из них – к нескольким еще более детальным. И всякий раз мы без труда находим нужное, так как каждая более общая карта уже по смыслу резко ограничивает дальнейший перебор. Таким образом, в иерархии языков заключено противоядие против комбинаторного взрыва. Понятно, что успех всей многоступенчатой процедуры будет зависеть от того, насколько полон имеющийся набор «карт», нет ли там пропусков целых ярусов или отдельных экземпляров.
Но такая завершенность возможна только в хорошо изученной области. Наиболее характерна именно нехватка знаний, требующая усилий для расширения и реорганизации языковых средств. Чтобы разобраться в развитии таких средств, удобно обратиться к языкам программирования. 2. Программистские аналогии В схеме обычной современной ЭВМ воплощен язык машинных команд, состоящий из простейших арифметических и логических операций.
Примитивность этого языка – плата за универсальность: предполагается, что машина будет использована для разных целей, а из маленьких кирпичей как раз и можно строить дома самой витиеватой формы, чего не скажешь о крупных блоках. Однако каждый конкретный пользователь решает только свой узкий круг задач, и универсальность ему не нужна. Напротив, он хотел бы ворочать большими блоками, что позволило бы ему уменьшить перебор. Иными словами, он желал бы иметь язык, ориентированный именно на его проблемы.
Как же его получить? При составлении нескольких самых простых программ некоторые сочетания команд все время повторяются, они как бы слипаются между собой. Такой комбинации можно присвоить имя, ввести ее в память, и оператор языка более высокого уровня готов. (Это аналогично выработке условного рефлекса – повторяющиеся стимулы и реакции становятся единым целым.) Такой вариант действий можно назвать путем «снизу».
Но есть и другой путь – «сверху». Анализируют все множество решаемых задач и ищут набор как можно более крупных частей, из которых складывался бы любой нужный алгоритм. Проводя опять таки параллель со строительством, можно сказать, что определяют комплект блоков, из которых удастся возвести все здания оговоренного типа. Здесь человек использует свое преимущество перед машиной в разноплановости своих представлений о мире. Для компьютера этот крупноблочный язык совершенно непонятен,
и ему надо перевести каждый блок в набор кирпичей – машинных команд. Для этого сочиняется программа транслятор (опять же путем иерархического разбиения). В разных случаях будут свои наборы блоков; так возникают сотни алгоритмических языков – каждый из них по своему членит мир. В этих соотношениях проявляется общий принцип мышления – работать на верхних этажах языковой иерархии. Если в нашем распоряжении нет языка высокого уровня – то его надо создать.
Главная цель при этом – избежать больших переборов вариантов. Окончательный результат, например, обоснование какого то утверждения, должен быть приведен к чему то хорошо понятному: аксиомам в формальной теории, атомно молекулярным представлениям в химии (это – язык реализации). Значит, задача состоит в том, чтобы спуститься до этого уровня, а затем идти в обратную сторону (снизу вверх), осуществляя логический вывод, строгую дедукцию.
3. Две логики Еще в школе на уроках геометрии мы хорошо усваиваем сущность строгой логической системы: если удалось протянуть цепочку умозаключений от исходных постулатов до требуемого утверждения, то не остается никаких сомнений в его истинности (пока кто нибудь, подобно Лобачевскому, не усомнится в самих основах). Но если цепочка вывода достаточно длинна, то, зная одни аксиомы, построить доказательство без большого перебора нельзя.
Поэтому здесь тоже нужны целые блоки умозаключений. Для этого решаем сначала совсем простые задачи (цепочки коротки), а каждую уже решенную запоминаем – они и становятся понятиями более высокого уровня (это то, что мы называем путем «снизу»). Наиболее важные, то есть отражающие общие свойства всего круга задач утверждения, именуют теоремами – их то нужно помнить обязательно. Теперь, столкнувшись с более трудной задачей, уже не придется сводить
ее к постулатам, а лишь представить как комбинацию уже известных задач и доказанных теорем (от них путь вниз уже проделан). Решить задачу – значит, «выложить, как пол комнаты паркетом, задачу – аксиомами». Нахождение такой укладки отражает построение доказательства, то есть состава и порядка умозаключений. Понятно, что если задача достаточно велика, то сразу с нею не справиться (все тот же большой перебор). Поэтому следует для начала расширить набор правильных утверждении.
Возьмемся за более простые задачи. Легко заполняем их аксиомами. Теперь, держа в уме эти блоки, можно снова вернуться к трудной задаче. Понятно, что она сводится к уже решенным. Именно так строятся занятия по учебнику или с хорошим учителем, когда специально подобранный ряд все усложняющихся задач позволяет постепенно наращивать знания ученика. А что делать в новой, неисследованной области? Если там есть сколько то установленных фактов, то с
них все и начинается. Внимательно изучаем их строение, стараемся обнаружить скрытую закономерность, некоторый общий принцип. Выявляем сходные контуры и мотивы – определяем для себя эвристики, которые позволят резко сузить число приемлемых гипотез. Дальше просеиваем правдоподобные варианты. Наконец, после долгих размышлений и неудачных проб, находим – эврика! – что все факты представимы как сочетания нескольких гипотез. Переживаем то редкое и надолго запоминающееся мгновение, которое называют
озарением, инсайтом. Понятно, что введение элементов гипотез – это уже знакомый нам путь «сверху». Загвоздка в том, что сами эти элементы могут оказаться слишком большими, слишком далекими от обыденных представлений, чтобы сразу быть выраженными на языке общеизвестного. Часто это просто смутные ощущения, когда сам автор догадки уже уверен в ее правильности, но еще не может убедить других. Как говорил Карл Гаусс: «… я знаю свои результаты, я только не знаю, как я к ним
приду». И все же, несмотря на образовавшуюся логическую пропасть, возникновение таких неясных образов – ключевой этап. Он соответствует интуитивному решению, постановке новых задач, определяющих все дальнейшее: формулировку и обоснование гипотезы, а затем превращение ее в теорию. Каждый интуитивный образ – «замок в облаках» – должен быть закреплен (дальнейшим подразбиением) на твердой почве аксиом и теорем. Ясно, что интуиция – это не что то мистическое, а итог движения мысли
«вширь», вынашивания своего особого взгляда, упрощающего всю картину. Итак, получаются две основные стадии создания теории: сначала угадывание языка максимально высокого уровня для описания имеющихся фактов, а потом – строгое обоснование. 4. Как исчислять идеи? В свое время великий Г.Лейбниц выдвинул программу «универсальной характеристики» – языка, символы которого отражали бы их смысл, то есть отношения к другим понятиям, – «его знаки сочетались
бы в зависимости от порядка и связи вещей». Все мышление, по его идее, должно свестись просто к вычислениям на этом языке по определенным правилам. Пока этот проект удалось воплотить лишь наполовину – формализовать дедуктивный вывод (его делает и ЭВМ), а логику изобретения, логику воображения – нет. Быть может, здесь окажется полезной комбинаторная геометрия (а наша модель относится к ней), цель которой – находить оптимальное сочетание некоторых элементов фигур (подобный подход использовал ранее
Эдвард де Боно). Модель хорошо отражает различные ситуации, например, наличие конкурирующих теорий – нескольких систем фигур, в которые укладывается данное множество фактов. Или появление факта, который не удается сложить из известных блоков. Тут приходится строить новую теорию – разбивать привычные фигуры на части и компоновать их по новому (производить, соответственно, анализ и синтез). Кроме чисто комбинаторных трудностей, препона тут еще
и в том, что при долгом употреблении каждый образ начинает восприниматься как неделимое целое, с чем связаны догматизм в мышлении и бюрократизм в его многообразных проявлениях. Как правило, здесь нужен свежий взгляд, которым нередко обладает «человек со стороны». Конечно, «игра в кубики» – лишь иллюстрация некоторых способов мышления, и говорить об универсальном подходе еще нельзя. И все же такая игра в некоторой степени проясняет, что мог иметь в виду
Лейбниц, когда писал, что существует исчисление более важное, чем выкладки арифметики и геометрии, – исчисление идей. В мозгу, вероятно, неясным пока способом создаются связи и отношения между образами – энграммами памяти, а сам мыслительный процесс сводится к перестройкам этой структуры. При этом действует и минимизация – мы ведь всегда ищем самое короткое представление совокупности фактов; раньше это называли принципом экономии мышления. Вообще, потребность в развитии какой то «новой математики
и логики» назрела. Как указывали отцы кибернетики и теории систем Джон фон Нейман и Людвиг фон Берталанфи, «логика будет вынуждена претерпеть метаморфозу и превратиться в неврологию в гораздо большей степени, чем неврология – в раздел логики», и «уже давно предпринимаются попытки создать „гештальт математику“, в основе которой лежало бы не количество, а отношения, то есть форма и порядок». 5. Мозг и компьютер ЭВМ может хранить в памяти любое количество сведений (даже абсолютно
бессмысленных) и производить с ними миллионы действий в секунду. Сперва надеялись, что эти достоинства уже гарантируют высокий интеллектуальный потенциал, но вскоре выяснилось, что во многой осведомленности не обязательно таится мудрость. Ведь, как мы видели, ум – способность не отбрасывать плохие варианты, а находить хорошие, чего примитивным перебором не достигнешь. Человек не запомнит большой объем неорганизованной информации (вроде телефонного
справочника), но зато знания у него н голове хорошо структурированы и взаимосвязаны. Они в наибольшей мере отражают существенные стороны реальности: наборы маршрутных «карт» увязаны между собой по вертикали и горизонтали, каждое понятие окружено его «ассоциативной аурой» (Д.С.Лихачев). Это богатство связей позволяет извлекать только относящиеся к делу сведения, а из них уже конструировать нужное решение. Знаниями о мире, моделью мира необходимо наделить и компьютер.
Для этого в него сейчас вводят набор «сценариев». Сценарий – это общий каркас, стереотип, который каждый раз должен наполняться конкретным содержанием. Распознав ситуацию, машина отыскивает соответствующий сценарий, после чего сама ставит вопросы и уточняет для себя недостающие детали. Это нелегко сделать, если учесть, что запас таких шаблонов у человека поистине колоссален – в них кристаллизуется опыт всей предшествующей жизни.
Каждое явление мы представляем во многих срезах и ракурсах, а некоторые вещи, например, пространственные соотношения, усваиваются бессознательно в раннем детстве. Но самое главное отличие здесь в том, что мозг оперирует непосредственно теми емкими образами, которые в нем возникли, то есть ему не нужно каждый раз опускаться до простейших операций. Судя по всему, образное мышление не отделено от памяти, где эти образы как то запечатлены, и одновременно
с перестройкой памяти самоорганизуется, настраивается на вновь созданный язык и «процессор». Это очень трудно воспроизвести прежде всего потому, что физические принципы нейрологической памяти не раскрыты. Сейчас популярна аналогия между оптическими голограммами и энграммами памяти (распределенность по носителю, огромная емкость, ассоциативность). На этом сходстве пытаются основывать думающие машины необычного типа – оптоэлектронные, в которых храниться и обрабатываться будут не числовые коды всех
понятий, а образы – голограммы. Другое направление – создание как бы аналога нейронной сети из большого массива простых ЭВМ. Хотя каждая из них выполняет несложную функцию, все вместе они манипулируют целыми комплексами состояний. Опять получается нечто похожее на образное мышление. Так или иначе, но компьютеры должны научиться, выражаясь словами еще одного патриарха кибернетики, Клода Шеннона, «выполнять естественные операции с образами, понятиями и смутными аналогиями, а не последовательные
операции с десятиразрядными числами». Работа мысли направляется определенными целевыми установками, мотивацией. Сама цель становится тем вершинным образом, который направляет поиск средств для ее достижения. В нас заложена потребность получить новые впечатления (чувство информационного голода), а также сжать их, охватить одним взглядом. Вероятно, эти установки надо внести в машину, чтобы сделать ее активно познающей. Наступит день, когда интуитивное мышление, связанное с неизвестными пока механизмами памяти,
тоже будет реализовано в виде электронных или каких то других схем. Постепенно искусственный интеллект начнет догонять, а затем и превосходить своего создателя в решении различных задач, игре в шахматы и тому подобное. И будет становиться все более очевидным, что главное различие – не в свойствах мышления как такового, а в том, что человек наделен личностными свойствами, в первую очередь, сознанием. «Человек знает, что знает».
Сможет ли машина преодолеть и этот рубеж? Когда она научится сама образовывать новые понятия, то рано или поздно придет к понятию «компьютер». А после – эффект зеркала: зная, что такое зеркало и видя в нем свое отражение, она придет к пониманию своего «Я». 6. Биокомпьютер Если оглянуться и окинуть непредвзятым взглядом историю мирового компьютинга, неминуемо обнаруживаешь: огромный корабль компьютерного приборостроения находится в движении.
Он медленно, но верно разворачивается от чисто счетной техники, через машины с массовым параллелизмом к так называемому биокомпьютеру – машине, которая должна вобрать в себя все лучшее, присущее «счетному железу» и живому человеческому мозгу. И если раньше биологические, эволюционные вопросы были для профессионального компьютерщика интересны не более, чем экологические, политические и прочие чисто человеческие проблемы, то теперь все изменилось. Как в процессе биологической эволюции возникали и развивались биологические
системы обработки информации? Как совершенствовались обеспечиваемые этими системами кибернетические свойства организмов? Все это ныне – профессиональные компьютерные вопросы. А посему не грех и обозреть сегодня, что мы, люди, сумели сделать и чего не сумели еще в силу разных причин на длинной извилистой дорожке, в конце которой написано: «биокомпьютер». 6.1. Эволюционное моделирование Все работы в этой области можно свести к трем группам.
В первой окажутся модели происхождения молекулярно генетических систем обработки информации, во второй – модели, характеризующие общие закономерности эволюционных процессов, а в третьем – анализ моделей искусственной «эволюции» с целью применения метода эволюционного поиска к практическим задачам оптимизации. В начале 70 х годов лауреат Нобелевской премии М.Эйген предпринял впечатляющую попытку построения моделей возникновения в ранней биосфере Земли молекулярно генетических систем обработки информации.
Наиболее известная из них – модель «квазивидов», описывающая простую эволюцию полинуклеотидных (информационных) последовательностей. Вслед за Эйгеном в 1980 м новосибирскими учеными В.Ратнером и В.Шаминым была предложена модель «сайзеров». В модели квазивидов рассматривается поэтапная эволюция популяции информационных последовательностей (векторов), компоненты которых принимают небольшое число дискретных значений.
Модельно заданы приспособленности «особей» как функции векторов. На каждом этапе происходит отбор особей в популяцию следующего поколения с вероятностями, пропорциональными их приспособленностям, а также мутации особей – случайные равновероятные замены компонент векторов. Модель сайзеров в простейшем случае рассматривает систему из трех типов макромолекул: полинуклеотидной матрицы и ферментов трансляции и репликации, кодируемых этой матрицей.
Полинуклеотидная матрица – это как бы запоминающее устройство, в котором хранится информация о функциональных единицах сайзера – ферментах. Фермент трансляции обеспечивает «изготовление» произвольного фермента по записанной в матрице информации. Фермент репликации обеспечивает копирование полинуклеотидной матрицы. Сайзер достаточен для самовоспроизведения. Включая в схему сайзера дополнительные ферменты, кодируемые полинуклеотидной матрицей, можно обеспечить сайзер какими либо свойствами, например свойством регулирования
синтеза определенных ферментов и адаптации к изменениям внешней среды. К началу 50 х годов в науке сформировалась синтетическая теория эволюции, основанная на объединении генетики и дарвиновского учения о естественном отборе. Математические модели этой теории хорошо разработаны, однако они практически не касаются анализа эволюции информационных систем биологических организмов. Однако в последующие десятилетия появились модели, исследующие
молекулярно генетические аспекты эволюции. Японский ученый М.Кимура, например разработал теорию нейтральности, согласно которой на молекулярном уровне большинство мутаций оказываются нейтральными а один из наиболее важных механизмов появления новой генетической информации состоит в дубликации уже имеющихся генов и последующей модификации одного из дублированных участков. В работах московских ученых Д. и Н.Чернавских сделана оценка вероятности случайного формирования нового
биологически значимого белка (кодируемого ДНК) с учетом того, что в белке есть активный центр, в котором замены аминокислот практически недопустимы, и участки, свойства которых не сильно меняются при многих аминокислотных заменах. Полученная оценка указывает на то, что случайное формирование белка было вполне вероятно в процессе эволюции. В чрезвычайно интересных работах С.Кауфмана с сотрудниками из Пенсильванского университета исследуется эволюция автоматов, состоящих
из соединенных между собой логических элементов. Отдельный автомат можно рассматривать как модель молекулярно генетической системы управления живой клетки, причем каждый логический элемент интерпретируется как регулятор синтеза определенного фермента. Модели Кауфмана позволяют сделать ряд предсказаний относительно «программ» жизнедеятельности клетки. В частности, продемонстрировано, что для одновременного обеспечения устойчивости и гибкости программы число входов логических элементов должно быть ограничено определенным
интервалом, а именно составлять величину примерно равную 2–3. Согласованность и эффективность работы элементов биологических организмов наводит на мысль: а можно ли использовать принципы биологической эволюции для оптимизации практически важных для человека систем? Одна из первых схем эволюционной оптимизации была предложена в 60 е годы П.Фогелем, А.Оуэнсом и М.Уолшем; эффективность этой схемы на практике была продемонстрирована
И.Букатовой из Москвы. Также в последнее время проявляется большой интерес к исследованию и использованию генетического алгоритма, предложенного Дж. Холландом из Мичиганского университета. Этот генетический алгоритм предназначен для решения задач комбинаторной оптимизации, то есть оптимизации структур, задаваемых векторами, компоненты которых принимают дискретные значения. Схема генетического алгоритма практически совпадает с таковой в модели квазивидов, за исключением того,
что в генетическом алгоритме механизм изменчивости помимо точечных мутаций включает в себя кроссинговер – скрещивание структур. Генетический алгоритм естественно «вписывается» в параллельную многопроцессорную вычислительную архитектуру: каждой «особи» популяции можно поставить в соответствие отдельный процессор, поэтому возможно построение специализированных компьютеров, эффективно реализующих генетический алгоритм. 6.2. Нейронные сети и нейрокомпьютер В последнее время активно ведутся также работы по построению моделей
обработки информации в нервной системе. Большинство моделей основывается на схеме формального нейрона У.МакКаллока и У.Питтса, согласно которой нейрон представляет собой пороговый элемент, на входах которого имеются возбуждающие и тормозящие синапсы; в этом нейроне определяется взвешенная сумма входных сигналов (с учетом весов синапсов), а при превышении этой суммой порога нейрона вырабатывается выходной сигнал. В моделях уже построены нейронные сети, выполняющие различные алгоритмы обработки информации: ассоциативная
память, категоризация (разбиение множества образов на кластеры, состоящие из подобных друг другу образов), топологически корректное отображение одного пространства переменных в другое, распознавание зрительных образов, инвариантное относительно деформаций и сдвигов в пространстве решение задач комбинаторной оптимизации. Подавляющее число работ относится к исследованию алгоритмов нейросетей с прагматическими целями. Предполагается, что практические задачи будут решаться нейрокомпьютерами – искусственными нейроподобными
сетями, созданными на основе микроэлектронных вычислительных систем. Спектр задач для разрабатываемых нейрокомпьютеров достаточно широк: распознавание зрительных и звуковых образов, создание экспертных систем и их аналогов, управление роботами, создание нейропротезов для людей, потерявших слух или зрение. Достоинства нейрокомпьютеров – параллельная обработка информации и способность к обучению. Несмотря на чрезвычайную активность исследований по нейронным сетям и нейрокомпьютерам,
многое в этих исследованиях настораживает. Ведь изучаемые алгоритмы выглядят как бы «вырванным куском» из общего осмысления работы нервной системы. Часто исследуются те алгоритмы, для которых удается построить хорошие модели, а не те, что наиболее важны для понимания свойств мышления, работы мозга и для создания систем искусственного интеллекта. Задачи, решаемые этими алгоритмами, оторваны от эволюционного контекста, в них практически не рассматривается, каким образом и почему возникли те или иные системы обработки
информации. Настораживает также чрезмерная упрощенность понимания работы нейронных сетей, при котором нейроны осмыслены лишь как суммирующие пороговые элементы, а обучение сети происходит путем модификации синапсов. Ряд исследователей, правда, рассматривает нейрон как значительно более сложную систему обработки информации, предполагая, что основную роль в обучении играют молекулярные механизмы внутри нейрона. Все это указывает на необходимость максимально полного понимания работы биологических систем обработки
информации и свойств организмов, обеспечиваемых этими системами. Одним из важных направлений исследований, способствующих такому пониманию, наверное, может быть анализ того, как в процессе биологической эволюции возникали «интеллектуальные» свойства биологических организмов. 6.3. «Интеллектуальные изобретения» биологической эволюции Интересно разобраться, как в процессе биологической эволюции возникла человеческая логика.
Анализ связан с глубокой гносеологической проблемой: почему человеческая логика применима к познанию природы? Кратко поясним проблему простым примером. Допустим физик, изучая динамику некоторого объекта, сумел в определенном приближении свести описание его к дифференциальному уравнению. Далее он, разумеется, интегрирует полученное уравнение согласно известным из математики правилам и получает характеристики движения объекта.
Переход от дифференциального уравнения к характеристикам движения носит дедуктивный характер но, если быть предельно строгим, сей переход надо обосновывать: ведь физический объект совершенно необязательно должен подчиняться правилам человеческой логики! Для понимания процесса возникновения логики предпринимаются попытки построить модельную теорию происхождения логики в биосфере. Такая теория могла бы содержать математические модели ключевых «интеллектуальных изобретений» биологической
эволюции, акцентирующие внимание на биологическом значении и причинах возникновения этих изобретений, а также модели, характеризующие переходы между изобретениями разных уровней. Надежнее всего, видимо, начать с «самого начала» – с происхождения жизни и проследить весь путь биологической эволюции от простейших организмов до человека, выделяя на этом пути наиболее важные эволюционные открытия, ведущие к логике. Чтобы представить круг вопросов, которые составляют предмет модельной теории происхождения
логики, отметим некоторые важные уровни «интеллектуальных изобретений». Уровень первый – организм различает состояния вешней среды, память об этих состояниях записана в геноме и передается по наследству, организм адекватно использует различие сред, меняя свое поведение с изменением среды. Пример этого уровня – свойство регулирования синтеза белков в бактериях в ответ на изменение питательных веществ во внешней среде по схеме Ф.Жакоба и
Ж.Моно. Данное свойство можно назвать элементарной сенсорикой. Второй уровень – временное запоминание организмом состояния среды и адекватное, также временное, приспособление к ней. Пример этого уровня – привыкание, а именно постепенное угасание реакции раздражения на биологически нейтральный стимул. Третий уровень – запоминание устойчивых связей между событиями в окружающей организм природе. Хороший пример – исследованный И.Павловым классический условный рефлекс, в котором происходит
долговременное запоминание связи между условным и безусловным стимулами и подготовка к жизненно важным событиям во внешнем мире. Между классическим условным рефлексом и логикой лежит еще целый ряд промежуточных уровней. Например, инструментальный условный рефлекс отличается от классического тем, что в нем для получения поощрения животному необходимо совершить заранее неизвестное ему действие. Цепь условных рефлексов – это система реакций, сформированная на основе ранее хранившихся в памяти
животного условных связей. Рассмотрение моделей «интеллектуальных изобретений» биологической эволюции показывает их чрезвычайную фрагментарность и слабую разработанность. Совершенно нет моделей переходов между «изобретениями» разных уровней. Сейчас можно только предварительно указать на некоторые аналогии. Например, выработку условного рефлекса можно рассматривать как происходящий в нервной системе животного
элементарный вывод – «если за условным стимулом следует безусловный, а безусловный стимул вызывает определенную реакцию, то условный стимул также вызывает эту реакцию» – дальний предшественник формул дедуктивной логики. Построение модельной теории возникновения логики может быть общей научной основой при создании искусственных интеллектуальных систем на бионических принципах. В рамках таких работ предстоит модельно сопоставить дарвиновскую (нет передачи по наследству приобретенных
навыков) и ламарковскую (есть наследование приобретенных навыков) концепции эволюции и выяснить классы задач, для которых применима та или иная стратегия. Появляются возможности модельно проанализировать процесс возникновения нервной системы как специально предназначенной для быстрой и надежной обработки информации части управляющей системы. Остается подчеркнуть, что в исследованиях по нейрокомпьютерам и по эволюционному моделированию уделяется
очень мало внимания тем свойствам систем обработки информации, благодаря которым организмы приспосабливаются к окружающей среде, а также осмыслению того, как и почему возникали такие свойства. Поэтому идейное объединение этих исследований с анализом эволюции «интеллектуальных изобретений» биологических организмов очень актуально. Будет ли компьютер когда нибудь мыслить, как человек? Сегодня вряд ли кто то сможет убедительно аргументировать положительный ответ на этот вопрос.
Тем не менее ход развития электроники показывает, что дистанции между машиной и существом разумным постепенно сокращается. В первые десятилетия после изобретения компьютера в его задачу входили лишь вычислительные работы, С 70 х годов компьютерную технику начали переориентировать с цифровой информации на различные системы символов, в том числе тексты. Следующий этап – он начался в 90 е – означая переход к работе с широкополосной информацией, включающей
распознавание емких информационных образов. По мнению специалистов, в самом ближайшем будущем до 90 % информации, обрабатываемой в компьютерах, будет связано именно с распознаванием образов. А следовательно возникает потребность в устройствах нового поколения. Один из способов решения этой проблемы – создание нейрокомпьютеров. Как известно, человеческое мышление характеризуется функциональной асимметрией мозга.
Логические задачи, связанные с обработкой различных символов и составлением последовательных цепочек умозаключений, как правило, решаются с помощью левого полушария. Оно же отвечает за речь. А вот образное и ассоциативное мышление – это функции правого полушария. Поэтому человек с поврежденным правым полушарием прекрасно логически мыслит, способен говорить и понимать речь, но он не улавливает различных оттенков в интонации говорящего и не может устанавливать различные
ассоциативные связи между словами. Такой индивид лишен чувства юмора, и при общении с ним возникают определенные трудности. Нейрокомпьютер – это устройство, которое во многом имитирует работу человеческого мозга, особенно его правого полушария. Оно состоит из множества искусственных нейронов, напоминающих естественные. Электронные нейроны, как и их аналоги в мозгу человека, объединены в структуры на различных уровнях, между которыми осуществляется информационный обмен.
С помощью системы информационных уровней, или нейросетей, можно распознавать и обрабатывать огромные объемы образной информации. Более того, такие компьютерные сети обладают свойством самообучения или самопрограммирования. Достоинство этих технологий также в том, что они предназначены для решения неформализуемых задач, для которых или еще нет соответствующей теории, или она в принципе не может быть создана. Кроме того, в процессе своего обучения нейросеть учится находить оптимальные решения поставленных задач,
что является еще одним важным преимуществом. Распознавание образов, сжатие информации, ассоциативная память – эти функции являются необходимыми для различных устройств с искусственным интеллектом. И создатели компьютерной техники уже достаточно продвинулись в этом направлении. Так, если сравнивать мощность искусственных и естественных нейросетей по емкости памяти и скорости работы, то искусственные нейросети уже превзошли уровень мухи, хотя еще не достигли уровня таракана.
Однако тот, кто пытался поймать муху, может представить, какого типа задачи уже доступны нейросетям! 7. «Виртуальная реальность» Процесс познания человеком мира вышел на новый виток. И этот новый уровень связан с разработкой и реализацией комплексной проблемы «виртуальная реальность» (Virtual Reality), активно развивающейся в университетах и промышленных компаниях США. Японии и Европы. Важным отличием «виртуального» подхода от предыдущих методов компьютерного моделирования
процессов, происходящих в сложных системах, является возможно более полное использование знаний об особенностях поведения человека, о человеческом мозге, о процессах обработки образной информации, о взаимодействии сенсорных каналов (зрительного, слухового, тактильного и прочих), о формировании у нас обобщенного образа мира – ведь мы еще плохо представляем, как именно это происходит. Разумеется, любое попадание на новый уровень – это результат глубокой проработки и обобщения результатов
работы на предыдущих уровнях. Поэтому в проблеме «виртуальной реальности» существенное место занимает то, что довольно давно вошло в компьютерный обиход, – цветная и трехмерная графика, интерактивные системы человеко машинного общения. Использование полисенсорной информации и соответствующих обратных связей привело к невиданному прогрессу в разработке аппаратуры (видео , аудио , сенсоров шлемов, специальных перчаток с датчиками) и программных средств (в частности, новых типов баз данных).
Все это хозяйство позволяет в реальном масштабе времени создать «эффект присутствия» как в глубине образа, так и на его поверхности, анализировать и отображать полученные знания с различной степенью детализации образа, интенсификации проявления различных его свойств, в различных ракурсах. Первостепенную роль в разработке проблемы «виртуальной реальности», играют такие особенности «человеческого фактора», знания о которых получаются в результате нейропсихолингвистических исследований.
К подобным особенностям относятся, в частности, обработка полисенсорной (иногда еще ее называют полимодальной) информации, адаптивная обратная связь, «взгляд изнутри» на объект, специфика механизмов межполушарной асимметрии мозга. При изучении процессов восприятия человеком знаний о мире (а мир – это многоуровневая внешняя среда и многообъектная коммуникативная система) больше внимания традиционно уделялось этапам восприятия, формирования и, конечно, их компьютерному представлению.
В настоящее же время на передний план выходят проблемы, понимания и интерпретации знаний, полученных по различным сенсорным каналам (имеются в виду цветовые оттенки, шероховатость поверхности, трехмерное полизвучание и тому подобное). Подход к познанию мира, основанный на «виртуальной реальности», предполагает отображение знаний в «кибернетическое пространство» – (cyberspace) с учетом специфики человека на основе дуальной – «левополушарной» (логико комбинаторной) и «правополушарной» (целостной, как говорят немцы,
«гештальтной») стратегии обработки информации. В соответствии с «левополушарным принципом» реализуются сканирование по экрану, обход образа по контуру и логико комбинаторная, численно аналитическая и вероятностная обработки. «Правополушарный принцип» позволяет осуществить целостный охват входного паттерна на основе оценки многосвязности. Поэтому важным фактором в создании систем «виртуальной реальности» является использование нейросетевых моделей. Еще одной гранью «виртуальной реальности» являются формализованные рассуждения
субъекта, основанные на его личностных представлениях о добре и зле, красоте, возможном и недопустимом, отображение этих рассуждений в cyberspace. Подобный формальный аппарат и практически полный комплекс рассуждений уже разработаны Вацлавом Поляком. В России работы в этой области ведутся рядом коллективов под эгидой секции «Нейроинтеллект» Российского научно технического общества радиотехники, электроники и связи им. А.Попова. Разрабатывается программное обеспечение по интерпретации метафор, интонационных
характеристик речи, определению состояния человека на основе мимики, а также детектированию газов из смеси, экологии, биотехнологии. При формировании «виртуальной реальности» должны, видимо, использоваться свойства, присущие живому мозгу, например, такие, как многосвязность и пластичность. Один из подходов поэтому и основан на изучении взаимного влияния этих свойств и характеристик (физических, геометрических, структурно временных) в искусственных нейронных системах.
В конкретной реализации модели, по видимому, целесообразно использовать нано технологию. В США проблематику «виртуальной реальности» разрабатывают и применяют при создании продукции такие известные и мощные фирмы, как Intel, IBM, Apple, Silicon Graphics, Hewlett Packard, Boeing, DEC, Northrop, Chrysler и новые, специализированные, такие, как VPL Research, SENSEB, Fake Space Labs, SIM Graphics.
Вот некоторые конкретные приложения «виртуальной реальности» на практике. Фирма «Крайслер» с помощью фирмы IBM, используя трехмерные очки линзы и сенсорные перчатки, сократила время проектирования очередной модели. Фирма «Боинг» использует подобный подход для обучения рабочих. Фирма «Нортроп» ускорила проектирование двигателя истребителя F 18. С помощью компьютеров Macintosh, фиксируя различные параметры, характеризующие действия спортсменов
(положение, скорость, гибкость), уже моделируется в реальном масштабе времени их динамика, что позволяет интенсифицировать возможности спортсменов. В западной печати Virtual Reality представляется как новая технология, способная усилить возможности человеческого мышления. Поэтому на ее разработку выделяются сотни миллионов долларов. Проблематика «виртуальной реальности», как никакая другая сфера, тесно связана с результатами нейропсихолингвистических
исследований, В этих направлениях российская наука всегда занимала передовые позиции. И.Павлов и А.Ухтомский, И.Бериташвили и Н.Бернштейн, Л.Выготский и Ф.Бассин (список легко можно продолжить) создали отличный фундамент. Математические модели еще в 50 60 х годах начали создавать И.Гельфанд, А.Ляпунов, М.Цетлин, С.Фомин. Это были пионерские работы, результаты которых использовались
во всем мире. Список использованной литературы 1. Аруцев А.А Ермолаев Б.В Кутателадзе И.О Слуцкий М. Концепции современного естествознания. С учебное пособие. М. 1999 2. Петросова Р.А Голов В.П Сивоглазов В.И Страут Е.К. Естествознание и основы экологии. Учебное пособие для средних педагогических учебных заведений.
М.: Дрофа, 2007, 303 стр. 3. Савченко В.Н Смагин В.П НАЧАЛА СОВРЕМЕННОГО ЕСТЕСТВОЗНАНИЯ КОНЦЕПЦИИ И ПРИНЦИПЫ. Учебное пособие. Ростов-на-Дону. 2006.
! |
Как писать рефераты Практические рекомендации по написанию студенческих рефератов. |
! | План реферата Краткий список разделов, отражающий структура и порядок работы над будующим рефератом. |
! | Введение реферата Вводная часть работы, в которой отражается цель и обозначается список задач. |
! | Заключение реферата В заключении подводятся итоги, описывается была ли достигнута поставленная цель, каковы результаты. |
! | Оформление рефератов Методические рекомендации по грамотному оформлению работы по ГОСТ. |
→ | Виды рефератов Какими бывают рефераты по своему назначению и структуре. |