Вступ
Усучасному світі, який увійшов в епоху інформації та інформаційних технологійпроблема створення «розумних» технологій постає особливо актуальною. Під«розумними» технологіями на сьогоднішній день можуть розуміти машини зпрограмами будь-якої складності, від пральної машини, що сама обирає режимпрання до роботів, що можуть малювати картини і керувати супутниками. Пройшовтой період, коли тцльки деякі вчені вірили у можливість створення машини, щообраховувала б імовірність подій, зв’язно відповідала на питання, тощо. Сьогоднітакий феномен як «штучний інтелект» вже глибоко увійшов у багато аспектівнашого життя. Хоча іноді ми не усвідомлюємо цього, але ідеї можливостістворення розуму, подібного до людського вже давно сприймаються як належне,проникаючи у свідомість людей і відображаючись у результатах їх творчості. Алефеномен «штучного інтелекту» постає перед нами не тільки у перспективі, але вжеі сьогодні. Багато з програм, що вирішують багато х людських когнітивнихзадачують нас. А отже, проблема існування штучного інтелекту є вельми цікавою інадає велике поле для наукової діяльності.
Сучаснапроблема «штучного інтелекту» полягає у вічному питанні бути чи не бути. Вже невикликає сумнівів можливість існування таких технічних засобів, що брали б насебе частину роботи людей, яку вони вони взмозі виконати краще. Сьогодні постаєінше питання, чи може існувати машина, що буде повністю імітувати людськупсихологію. Ця проблема дуже обширна і вміщає в себе велику кількість аспектів.Щоб побудувати деяку картину сучасного її стану слід охопити хочаб деякі з них.У поданій роботі я звернула увагу на розвиток області наук, в межах якоїз’явилася ця наука, когнітивної науки; також деякі філософські і методологічніпитання, що стосуються створення «штучного інтелекту»; важливим питанням постаєсучасні досягнення в цій області і ставлення до них суспільства; сучаснітехнології досягнення деяких цілей.
Дляокреслення підходів до ідей створення «штучного інтелекту» у роботі розглянутоаргументи вчених, що підтримують ідею можливості цього і тих, що критикують абосучасні методи розв’язання проблеми, або взагалі можливість її ров’язання яктакої. До перших належать, наприклад кібернетики Т’юринг, Бостром. До вчених,що піддають цю ідею деякій критиці належить кібернетик Бірюков, психологТихомиров.
Зазавдання у цій роботі поставлено ознайомитись з поняттям «штучного інтелекту» ізмалювати сучасний стан цього питання. Також зроблено спробу передбачити сферуі перспективи майбутнього розвитку галузей, що торкаються проблеми штучногоінтелекту на основі розглянутих теорій і фактів.
ЧастинаІ. Філософсько-методологічний вступ
Проблемаштучного інтелекту бере своє коріння у глибинах когнітивної науки, тож дляпочатку слід визначити що це таке. Когнітивна наука – це областьміждисциплінарних досліджень пізнання, яке розуміємо як сукупність процесівнакопичення, збереження, перетворення і використання знань живими і штучнимисистемами. Існують такі дисципліни:
/>
(Взятоз Соло «Когнітивна психологія»)
Яквже було сказано, це область міждисциплінарна, тому виникає ряд труднощів,пов’язаний з цим. Одна з перших – проблема термінології. Власне перед тим якказати про проблему взаєморозуміння кількох наук, слід зазначити, що і всередині психології існують значні неточності. По-перше вже протягом кількохтисячоліть вчені не можуть домовитися про те, що ж таке свідомість, тобто неможуть визначитися з предметом науки.
Появаінформаційних технологій у 21 столітті тільки підкреслила наскільки мало мизнаємо про людську душу. Зараз стало популярним порівняння людського мозку зком’ютером. Звичайно, це краще, ніж порівнювати його з телеграфом (Г.Гельм-Гольц) або навіть з радіоприймачем (А. А. Ухтомский). Але як і ранніпорівняння, комп’ютерна метафора має великі білі плями. Так, найочевиднішарізниця, це те, що у комп’ютерів, на відміну від людини, не існує свідомості.Тим не менш, інновації в комп’ютерних технологіях і порівняння з ними людини дозволяютьпоставати більш точні питання. Наприклад – чому око, яке можна порівняти звідеокамерою, не викривлює зображення при нахилі голови. Перераховувати такізагадки можна до нескінченності.
Середусіх таємниць психології найбільшою лишається, все ж, таємниця свідомості. Мисприймаємо світ і себе з безпосередньою очевидністю. І сам по собі фактнаявності її настільки очевидний, що всі уявляють свідомість, але тільки домоменту, коли їх попросять сформулювати, що ж це таке. Пояснення – цезнаходження способу міркування, за якого незрозуміле стає зрозумілим. Однакбудь-яке пояснення свідомості буде більш незрозуміле, аніж її очевиднеіснування, адже виникнення свідомості не може бути результатом процесів цієїсамої свідомості, а тому природа її не може бути подана з тією само,очевидністю, яка присутня поясненням її явищ.
Історичносклалося, що більшість психологічних термінів є омонімами і це ще більше ускладнюєситуацію. Також, якщо розібратися у основних загальновживаних термінах, можнапомітити, що будь-яке психічне явище пояснюється через специфічну властивістьпсихіки. Це нагадує приклад, коли в середні віки горіння дерева пояснювали йогоздатністю до цього через наявність в ньому особливого матеріалу. Але цепроблеми лише в середині самої психології, а існують також термінологічніпитання на зтику наук когнітивної сфери. Для ефектиної співпраці необхіднаспільна мова, але існує такий феномен як міжнаукова омонімія. Це означає, що врізних науках одне і те саме слово може позначати зовсім різні значення, щопризводить до непорозуміння.
Окрімтермінології існує також проблема в узгодженості наук, тобто висунення спільнихприпущень, які потім можуть ров’язуватися комплексними методами. Існує декількастратегій міждисциплінарної взаємодії:
1. «Косметична дисциплінарність» — (Спербер, 2003) мається на увазізвичайна сумація міждисциплінарних проектів.
2. «Збагачення» — розширення спектру доступних даних
3. Розв’язання наукових проблем однієї області за допомогою методівіншої
4. «Граничні» проблеми: спільна постанова питань і спільний пошуквідповідей на них
Щодо представленихстратегій, то вони потребують також і комплексного підходу з точки зоруметодології пошуку відповідей. Існує багато різних шляхів пояснення: логічний,містичний, практичний, гуманітарний і природничий. Необхідно обрати шляхпояснення, а вже у його межах – мову і, нарешті – критерії досліджень.
Існуютьпринципово різні шляхи пізнання: містичний, що претендує на очевидність ізаснований на власних відчуттях; логічний, який орієнтований на формальнувірність, відсутність протиріччя і тавтологічні перетворення; природничий, котрийнамагається відшукати істину, спираючись на відповідність досліду логіки;практичний, ефективність якого визначається за результатами його практичногозастосування; шлях гуманітарної науки, що претендує на осмислення всьогопізнаного і опирається на традицію і ідеали.
1. Природничі теорії мають сформовані критерії обґрунтованості своїхстверджень, однак вони нечіткі, оскільки намагаються бути незалежними відсуб’єктивізма, не зовсім вірні, адже будуються на ідеалізованих об’єктах, ібезпосередньо на практиці не застосовуються. Тим не менш, саме вони даютьнайбільше наближення до істини. Психологія, відокремлюючись самостійною наукою,одночасно позиціонувала себе як науку природничу, чим прийняла важливу норму.
· Відтепер кожен психолог, що вважає себе науковцем, маєобґрунтовувати свої твердження експериментом.
· І навпаки, всі дослідні дані, усі, знайдені емпірично, законитільки тоді визнаються достовірними, коли отримують логічне обґрунтування.
· Саме обґрунтування емпіричних фактів має незалежно перевірятися.
· Не можна будувати науку, спираючись на слова буденної мови чи їхетимологічний аналіз. Тим більш не можна так будувати психологію, де більшістьслів – омоніми.
2. Слід розрізняти теоретичні терміни, що входять логічний описпсихічного, і емпіричні терміни, призначені для опису реальності, щоспостерігаємо безпосередньо. Свідомість як емпіричний термін відображаєемпіричне явище – усвідомленість.
3. Містичні переживання є реальністю. Вони виникають одночасно споявою людського мислення і, поки існує людина, не зникнуть. Кожна людинапереживає їх по своєму, тим не менш, вони не можуть бути ні логічнообґрунтовані, ні достатньо точно виражені в словах. Містична істина існує лишедля того, хто її знайшов, і неосяжна для всіх інших. «Мысль изреченная естьложь».
4. Практика не може прямо свідчити про істинність. Практичнірезультати не залежать від того и істинна теорія лежить в основі шляхів їхдосягення. Практичні технології відповідають ситуативно і лише на питання«як?», а не «чому?».
5. Тільки логіка дозволяє зрозуміти принципову простоту іоднорідність природи психічного, а отже відмова від неї не можлива. Однак,логіка не може обґрунтувати сама себе, адже початково ґрунтується на аксіомах,які сприймаються як незаперечні і такі, що не потребують обґрунтувань.
Природничимиметодами можна вивчати неусвідомлювану роботу свідомості. Але склад свідомості,що сформувався у процесі цієї роботи, багато у чому лишається прерогативоюгуманітарного знання. Свідомість людини має описуватись всіма цими методами, щотак важко звести разом. При цьому ні один з них, окремо взятий, не є повним івичерпним.
Нарисісторії когнітивної психології
Першіуявлення про мислення
Звідкиприходить знання і як воно представлене в свідомості? Це вічне питання має важливе значення длякогнітивної психології. Були запропоновані дві відповіді: емпірики стверджують, що знаннявиникає з досвіду; натівісти ж стверджують, що є деякі початкові категорії, яківпорядковують сенсорний досвід. З наукової точки зору ні одна з цих позицій неможе бути остаточно доведена, тому суперечка триває і не дає чіткої відповіді. Вирішення цихтриваючих дебатів обумовлене нашим визначенням знання як «зберігання і організаціїінформації в пам'яті», що відповідає позиціям обох сторін спору: прихильники «Зберігання» передбачає,що досвід набутий, а «організація» — що в нервовій системі існують деякі структурніздібності. Пам'ятаючи про ці проблеми, давайте розглянемо, як їх вирішують філософиі психологи.
Глибокийінтерес до знання ми можемо виявити в самих древніх наукових працях. Перші теорії стосувалисяролі думки і пам'яті. Аналізуючи давньоєгипетські ієрогліфічні тексти, можназробити висновок про те, що, на думку їхніх авторів, знання локалізовано всерці, — уявлення, що розділяв і ранній грецький філософоф Аристотель. Але неПлатон, який вважав, що знання знаходиться в мозку.
Пізнанняв епоху Відродження і після неї.
Філософита теологи епохи Відродження в загальному сходилися на думці, що знаннязнаходяться в головному мозку, причому деякі навіть запропонували схему їх будови ірозташування.
УXVIIIстолітті,коли філософська психологія зайняла місце, призначене науковій психології,британські емпірики Берклі, Юм, а пізніше Джеймс Мілль і його син Джон СтюартМілль припустили, що є три типи внутрішніх репрезентацій: 1) безпосереднісенсорні події 2) бліді копії перцепт — те, що зберігається в пам'яті 3)перетворення цих блідих копій, тобто асоціативне мислення. Подібне уявлення провнутрішню репрезентацію і перетворення припускає, що внутрішні репрезентації формуються запевними правилами, а формування та перетворення потребують часу і зусиль — положення, щолежать в основі сучасної когнітивної психології.
У XIXстолітті психологи спробували вирватися з рамок філософії та сформувати окремудисципліну, засновану на емпіричних даних, а не на спекулятивних міркуваннях. Помітну роль уцій справі зіграли перші психологи: Фехнер, Брентано, Гельмгольц, Вундт,Мюллер, Еббінгауз та інші. До другої половини XIX століття теорії, щопояснюють репрезентацію знань, чітко розділилися на дві групи: представникипершої групи наполягали на важливості структури уявних репрезентацій, апредставники іншої групи наполягали на особливій важливості процесів. Представникдругої групи, Брентано, вважав, що справжній предмет психології — це дослідженнякогнітивних дій: порівняння, судження й відчування. Протилежна стороназаймалася безліччю тих самих питань, що обговорювали за дві тисячі років до цьогоПлатон і Арістотель. Однак на відміну від попередніх, чисто філософських,міркувань обидва види теорій тепер підлягали експериментальній перевірці.
Когнітивнапсихологія: початок XX століття
У XXстолітті з появою біхевіоризму і гештальт-психології уявлення про репрезентаціїзнань зазнали радикальні зміни. Погляди біхевіористів на внутрішні репрезентаціїбули представлені, в психологічній формулі «стимул-реакція» (S-R), а представникигештальт-підходу будували докладні теорії внутрішньої репрезентації у контексті ізоморфізму — взаємооднозначноївідповідності між репрезентацією і реальністю. Наприкінці XIX століттяраптом з'ясувалося, що дослідження когнітивних процесів вийшли з моди і їхзамінив біхевіоризм. А починаючи з 1950-х років інтереси вчених зновузосередилися на увазі, пам'яті, розпізнаванні паттернів, образів, семантичноїорганізації, мовних процесах, мисленні і навіть «свідомості», а також на інших«когнітивних» темах, одного разу відкинутих під тиском біхевіоризму.
Виникненнякогнітивного руху і відродження питання свідомості у психології.
Як івсі істинні новації в історії психології, когнітивна психологія не з’явилася напорожньому місці. Її витоки можна прослідкувати в більш ранніх концепціях.Деякі дослідники стверджують, що «когнітивна психологія одночасно і новітня, ідавня традиція в історії психології» (Heamshaw 1987). Як вже було сказано,інтерес до свідомості з’явився задовго до того. Більшість шкіл мають справу зісвідомістю. Наприклад структуралізм і функціоналізм. І лише біхевіоризмвідійшов від цієї традиції і витіснив тему свідомості з порядку денногопсихологічної науки майже на 50 років.
Представникбіхевіоризма Гатрі під кінець своєї научної карє’ри піддав критиці механістичнумодель психіки і стверджував, що для визначення істинного значення тих чи іншихстимулів, необхідно описувати їх у перцептивних чи когнітивних термінах (Guthrie. 1959). Ще однимпопередником когнітивного руху можна вважати радикальний біхевіоризм Толмена.Цей дослідник визнавав важливість розглядання когнітивних змінних і сприяввідходженню від загальноприйнятого на той час підходу «стимул-реакція». Вінтакож підкреслював необхідність використання проміжних змінних для визначеннявнутрішніх станів, що не спостерігаються. Також великий внесок у когнітивний рухзробила гештальт-психологія, оскільки в центрі її уваги, з самого початку,стояла «організація, структура, зв’язки, активна роль суб’єкта, а також важливароль сприйняття в процесі научіння і запам’ятовування». (Hearst. 1979)Гештальт-психологія значно допомогла когнітивному руху вже тим, що підтримувалаінтерес до проблеми свідомості в період панування біхевіоризма. Порередникомкогнітивної психології став також Жан Піаже, що провів ряд суттєвих і вагомихдосліджень дитячої психології саме зі сторони стадій когнітивного розвитку. Алеу США його ідеї поширення не набули, хоча вже у 20-30 роках значно впливали наєвропейьку психологію.
Колими стикаємося з такими значними змінами основних наукових концепцій, сліднам’ятати, що подібні ситуації завжди є відображенням більш глибокихперетворень, пов’язаних зі змінами самого духа епох. Наука адаптується до новихвимог. Щоб пояснити зміни у психології, слід звернутися до фізики. На початку20х років почав розроблятися інший підхід до розуміння сутності об’єктивногосвіту. Галілеєвсько-ньютоніанська модель світу була відкинута, на зміну їйприйшла інша, котра піддавала сумніву основу класичної науки – ідею проможливість абсолютного відокремлення об’єкта і суб’єкта. Сучасна наукавідмовляється від ролі пасивного спостерігача і позиціює себе як спостерігача,що бере у явищі участь. Саме ця подія у сучасній фізиці у значній мірівідродила інтерес до ролі свідомого досвіду в отриманні інформації прозовнішній світ і послугувала достатнім приводом для реабілітації свідомості уякості предмета психології.
Такожбув ряд інших новацій, що також слугували поштовхом для розвитку когнітивноїпсихології. Наприклад: виникнення теорії зв'язку; сучасна лінгвістика, у коло питань якоїбули включені нові підходи до мови та граматичних структур, а також комп'ютерна науката інші технологічні досягнення. Комп'ютерна наука, і особливо один з її розділів — штучний інтелект, змусили психологів переглянути основні постулати, що стосуютьсявирішення проблем, обробки і зберігання інформації в пам'яті, а також обробкимови іоволодіннянею. Вперше в історії людстваз'явився автомат, який, як і людина, виявився здатним переробляти інформацію.Комп'ютери дозволяли подивитися на інформаційні процеси у людини знесподіванної сторони. Дж. Міллер зіспівавторами казали, що комп'ютер можна використовувати для моделювання діїрізних психологічних теорій. Пізніше,мозок взагалі став розглядатися як обчислювальний механізм, подібний докомп'ютера. Перші експерименти були багато в чому натхненні питаннями:що спільного між процесами переробки інформаціїу людини і комп'ютера? Чим ці процеси відрізняються один від одного? Пошук відповідей породжував незвичайні ідеї інайчастіше висловлювався на мові блок-схем, які когнітівісти запозичили в інженерів.
Когнітивна психологія дійсно породила новий погляд напсихіку. Отримані неюекспериментальні дані сильно змінили існуючі до цього уявлення пропізнавальні процеси. Саме когнітівізм почав,повною мірою, формувати психологію за каноном природничої науки, щопоєднує логіку і експеримент. Студенти, які здають іспити з когнітивної психології, змушеніміркувати й знаходити своїм міркуванням досліднепідтвердження, а прихід у науку покоління, що розмірковує змінює виглядцієї науки.
Метафорипізнання
Комп’ютернаметафора
Досимвольного підходу, що виник після 60тих років, когнітивну науку підвів підхідінформаційний, який розгорнувся на теренах інформаційної теорії. Свідомість вінтрактував як інформаційний канал, що має обмежені пропускні здібності. Також вмоду увійшли різного роду схеми і алгоритми, якими намагалися пояснити всю роботумозку. Саму ідею комп’ютерного підходу точно сформулював один з творців інженерної психології, КеннетКрейк: «Якщо організм несе в голові дрібномасштабну модель зовнішнього оточенняі своїх можливих дій, він здатний перевіряти різні альтернативи, визначатинайкращі з них, реагувати на майбутній розвиток ситуації і взагалі у всіхвідносинах вести себе більш повноцінно, безпечно і компетентно, потрапляючи в складні умови»(Крейк, 1943) Використовуючи цю теорію, можна було зробитинаступний крок — оголосити відмінності форм репрезентації мозку і машинповерхневими і постулювати єдиний абстрактний формат подання знань на рівніглибинних структур, що допускають алгоритмічний опис. Ось чому на початку1960-х років процеси пізнання стали трактуватися по аналогії з процесамиобчислень в комп'ютері. Розуміння того, що людина активно «переробляєінформацію», будуючи внутрішні моделі оточення, означало перехід відінформаційного підходу у вузькому сенсі слова до когнітивної психології.
Значна частина досліджень, що розгорнулися з кінця 50х років,схилялася до версії комп'ютерної метафори, пов'язаної з виявленням та аналізомможливих структурних блоків переробки інформації та принципів їх об'єднання вєдину функціональну архітектуру. Першимироботами нового напрямку можна вважати дослідження процесів утворення штучнихпонять Джеромом Бруне-ром і співробітниками, а також роботи Ньюела, Саймона іШоу, які створили ряд машинних моделей мислення, в тому числі «Логік-теоретик»та «Універсальний вирішувач завдань». Комп’ютерна теорія мала тенденцію досильного спрощення психічних процесів, наближаючи їх до прогам комп’ютерів.Такі моделі не функціонували на граничних, непевних випадках, доводилосявводити багато додаткових параметрів для кожної суперечливої ситуації.
Підсумки першого етапу розвитку когнітивноїпсихології були висунуті у книзі Нейссера «Когнітивна психологія» 1967 року.Він пише, що конструктивний характер наших пізнавальних процесів єфундаментальним фактом. Завдання когнітивної психології полягає в тому, щоб зрозуміти,яким чином «сприймається, запам'ятовується і осмислюється світ, що породжуєтьсяз такого непродуктивного початку, як конфігурація ретинальної стимуляції абовізерунки звукового тиску у вусі». Найссер підкреслює, що мова йде лише проподібність, але не про ідентичність машинних програм і психічних процесів.
Протягом 1970-х років у психології і за їїмежами, насамперед у роботах з штучного інтелекту, склалося єдина думка щодотеоретичних підстав, методів і моделей когнітивних досліджень. Певною міроюумовно, можна виділити чотири принципи традиційної парадигми ранньоїкогнітивної психології:
1. Пріоритет знання йраціонального мислення над поведінкою, звичками і афектом.
2. Використання комп'ютерноїметафори.
3. Припущення пропослідовність переробки інформації.
4. Акцент на формальномумоделюванні замість вивчення мозкових механізмів.
Модульнаметафора
Комп’ютернаметафора використовувала для порівняння з мозком людини так звані«фон-нейманівські» машини, універсальні обчислювачі, які характеризувалисяздатністю розділяти інформацію на пасивні дані і активні операції над ними, аткож наявністю одного процесору. Революцію у науці спричинив винахідтранзистора, а з ним і мікропроцесора. Комп’ютери з його використанням, хоч ібули простіші від «фон-нейманівських», але були швидші і точніші у виконанніточних і визначених практичних завданнях. Також у цілях економії мікропроцесорипочали використовувати для створення багатопроцесорних комп’ютерів, щодозволило значно скоротити час обробки інформації, шляхом розбиття задачі напід завдання і об’єднання процесорів між собою. Це і призвело до виникненнямедулярного підходу.
Першим автором, що використав термін«модулярність» для опису організації психологічних процесів, був американськийнейроінформатик Девід Марр. Він припустив, що «будь-який великий масивобчислень повинен бути реалізований як набір частин, настільки незалежних одинвід одного, наскільки це допускає спільне завдання. Якщо процес організованихне таким чином, то невелика зміна в одному місці буде мати наслідки в багатьохінших. Це означає, що процес у цілому буде дуже важко виправити або поліпшити,як шляхом втручання людини, так і за допомогою природної еволюції — аджебудь-яка зміна, що покращує один із фрагментів, буде супроводжуватися безліччюкомпенсаторних змін в інших місцях » (Маrrі, 1976). Ідея розбиття великого масивуобчислень на відносно незалежні автономні задачі, які вирішуютьсяспеціалізованими механізмами (підпрограмами або модулями) була очевидною длябіологів та інформатиків, але спочатку залишалася малопереконливою для фахівцівз когнітивної психології, цілком задоволених можливостями класичноїкомп'ютерної метафори. Джеррі Фодор ввів поняття модулярності і впсихологію. Архітектура пізнання представляєсобою, з його точки зору, швидше мозаїку з безлічі паралельних і дещоавтономних у функціональному відношенні процесів, а зовсім не організоване вєдиний механізм ціле. Фодор сформулював в цілому 8 критеріїв, або ознак, які всукупності дозволяють ідентифікувати когнітивні модулі. До них відносяться:
1. вузька спеціалізація
2. інформаційна закритість
3. обов'язковість
4. висока швидкість
5. поверхнева обробка
6. біологічне походження
7. селективність випадінь
8. фіксованостінейроанатоміческіх механізмів.
Нейронна метафора
Якщо на початку виникнення когнітивногопідходу багато психологів сприйняли спочатку як звільнення від необхідностіцікавитися мозковим субстратом та можливими нейрофізіологічним механізмами тихчи інших пізнавальних процесів, то протягом останнього десятиліття 20-гостоліття яскраво продивляється глобальна тенденція, що пов'язана із зростаннямінтересу до мозкових механізмів — реальної архітектурі пізнавальних процесів.
У подальші роки з появою безлічінестандартних архітектур в коннекціонізмі і, особливо, у зв'язку ізспекуляціями про мозкову локалізацію тих чи інших «когнітивних модулів»природно стало виникати питання про те, як ці гіпотетичні механізми реалізованінасправді. Змінився і сам характер когнітивних досліджень, які в значній міріспираються сьогодні на дані нейропсихологічних і нейрофізіологічних робіт. Починаючиз 1990-х років послабився вплив власне комп'ютерної метафори і машинних моделей.
Отже,іншим впливовим підходом впродовж останніх 20 років став так званий PDP-підхід(від paralle ldistributed processing = паралельно розподіленаобробка), широко відомий також як коннекціонізм. В даному випадку також ідемова про відмову від комп’ютерної метафори в її символьному варіанті. Однак,якщо концепція когнітивних модулів Федора лише допускає деяку паралельністьобробки в яких-небудь частинах когнітивної моделі, то в коннекціонізміпаралельність опрацювання стає загальним принципом. Мова іде про те, що всіелементи системи, що інтерпретується як нейронна мережа, розглядаються як такі,що потенціально пов’язані між собою і одночасно беруть участь у формуваннівідповіді на стимул.
/>
Схеманайпростішої мережі.
Головнаперевага нейронних моделей у порівнянні традиційними когнітивними моделямиполягає можливості асоціативного і розподіленого збереження інформації а такожадаптивного навчання. Перша особливість означає, що будь-який фрагментпершопочаткової ситуації чи будь-яка початкова обставина здатні асоціативнопідтримати пригадування. Розподіленим зберігання є тому, що його субстратом є укожному окремому випадку не окремий елемент, а мережа в цілому, тобто станивсіх її вузлів і вагомість їх зв’язків. Нарешті, конекціонізм дозволяє природноописувати деякі елементарні форми навчання. Процеси навчання у нейроннихмережах мають власну специфіку, найпростіша, суто асоціативна процедуранавчання в нейронних мережах стосується класичних іде прокладення шляхівпаловської фізіології.
Правило Хебба: між усіма синхронно активованиминейронами знижуються пороги синаптичних зв'язків (підвищуються ваговікоефіцієнти активаційних зв'язків). В результатібагаторазових повторень поширення активації при виникненні на вході тієї жситуації відбувається швидше; група елементів, «ансамбль», активується як ціле,і ця активація відбувається навіть при змінах ситуації, наприклад, випаданніякихось компонентів зображення, а також «відмирання» частини «нейронів» самоїмережі. Тим самим, вдається моделювати особливості цілісного сприйняття, описаногогештальтпсихології. Подібна терпимість до спотворень на вході і до порушеньмеханізму обробки інформації разюче контрастує з тендітністю звичайнихсимвольних програм. Крім того, пластичність синаптичних зв'язків, що лежить воснові формування ансамблів, дозволяє дати фізіологічне пояснення процесівузагальнення (категоризації) окремих ситуацій. Недоліком описаного механізмусамоорганізації нейронних зв'язків є його надзвичайно повільний, що вимагаєсотень і тисяч повторень, характер.
Прикладом більш ефективного комп'ютерногоалгоритму навчання служить запропонований канадським інформатиком ДжеффріХінтон і його колегами метод зворотного поширення помилки. У цьому випадкумережі пред'являється деяка конфігурація, а потім відповідь на виході порівнюєтьсяз ідеальною, бажаною відповіддю. Результат такого порівняння обчислюється іпропускається потім у зворотному напрямку: від виходу мережі до її вхідногошару, причому на кожному проміжному етапі здійснюються деякі корекції ваговихкоефіцієнтів зв'язків елементів з метою подальшої мінімізації неузгодженості.Але «контрольована мінімізація неузгодженості» залишає сильне враженнядовільного підбору бажаного результату.
Ряд коннекціоністскіх моделей використовує зворотні зв'язкидля повторного пропускання продуктів обробки через нейронну мережу. Цявластивість, рекурентність, дозволяє обробляти конфігурації на вході вконтексті попередніх подій («минулого досвіду»).
У настільки динамічній області, яккогнітивна наука, важко прогнозувати майбутній розвиток подій. У рамках робіт зобчислювальною нейронаукою (нейроінтеллектом) і еволюційним моделюваннямостаннім часом починають розглядатися більш реалістичні, з біологічної ібіофізичної точки зору, альтернативи штучним нейронним мережам. При збільшенніобсягу мозку в процесі еволюції вихідний мережевий принцип «все пов'язано зусім» перестає виконуватися, виникають елементи модулярної макроорганізаціі(Striedter, 2004).
У зв’язку з появою вової хвилізацікавленості у процесах головного мозку і появою нових можливостей утехнологічному плані, виникли нові методи дослідження головного мозку. Аж досамого останнього часу існували дві основні групи методів вивченнянейрофізіологічних механізмів:
Найбільш відомим з новітніх методів єпозитронно-емісіонна томографія (ПЕТ). Негативним чинником є необхідністьвведення у кров радіоактивної речовини з нестійкими ізотопами. При активізаціїякої-небудь ділянки мозку, кров направляється туди, де і проходить розпад,продукти якого потім реєструються. Цей метод забезпечує високе простороверозширення але може реєструвати тільки зміни, що протікають досить повільно, нешвидше хвилини.
У багатьох сенсах набагато більш ефективним методомє магніто резонансна томографія (МРТ). Цей метод дозволяє точну і доволі швидкурегістра цію крім того, він не призводить до порушень організму, так якзаснований на випромінені радіохвиль певної частоти окремими атомами, щознаходяться у змінному магнітному полі. В експериментальній психології цейметод використовується у вигляді функціональної МРТ, коли визначаєтьсяконцентрація кисню у крові. Цей показник пов”язаний з активністю нейронів увідповідних структурах мозку.
НедолікомфМРТ є низьке часове розширення (до 1 сек). Однак саме ця методика на сьогодніший день є найточнішою.
Такожіснує безліч інших методів дослідження фізіологічного субстрату когнітивнихфункцій людини, також пов’язаних з проривом у технологічній сфері. В тому числіважливу роль зіграли розробки у мілітаристській сфері, що стали доступні дляцивільного використання. Перша модель організації мозку запропонував Джон Х’юлінг-Джексон,невролог кінця 19 століття, що в своїй роботі спирався на еволюційну теоріюДарвіна. Одним з радянських вчених, що займався цією проблемою, був А. Р.Лурія. Він визначив трьохрівневу систему організації мозку. Подібні дослідженнявирішують одну і ту саму задачу, стратифікацію. Тобто виділення в цілісномумасиві окремих рівнів, що мають деякі спільні характеристики.
Частина2. Порівняння штучного і природного інтелекту
Існуєкілька основних питань штучного інтелекту. Наприклад про мозок. Якого родумислячою машиною він є? Протягом століть психологічних досліджень, а особливо –кількох останніх десятиліть, відповідь на це питання починає роз’яснюватись. Употоці нових даних, поява яких завдячує використанню нових методівтрьохвимірного вивчення мозку, стало непросто визначати аналоги традиційнихпсихологічних понять і ранні когнітивні моделі, що будувалися на теренахкомп’ютерної метафори. Стало остаточно зрозуміло, що, якщо мозок і можнапорівняти з сучасною обчислювальною технікою, то слід пам’ятати про йоговідмінність. В прешу чергу відмінність полягає в існуванні еволюційного іонтогенетичного розвитку, а також у надзвичайно великій кількості елементів ізв’зків між ними. Можливо, дослідження штучного інтелекту просунулися б щеглибше, якби комп’ютер був більше скожий на мозок.
Осьпорівняння мозку і комп’ютеру, що приводить Солсо. Кремнієві комп'ютери Вуглеводневий мозок Швидкість обробки Наносекунди Від мілесекунд до секунд Тип Послідовний процесор Параллельний процессор Ємність пам'ті Більша для оцифрованої інформації Більша для зорової і мовної інформації Матеріал Кремній і систма електронного забезпечення Нейрони і система органічного забезпечення Взаємодія Абсолютно керований Має власну точку зору Здатність до навчання Керується правилами Понятійний Краща якість Швидкість обробки інформації, керованість, передбвчуваність Легко робить висновки, узагальнення, виносить судження. Мобільний. Найгірша якість Не може вчитися самостійно, погано виконує складні когнітивні функції, знижена мобільність. Має обмежену здатність до обробки і збереженння інформації, здатен до забування.
Для того, щоб поглибити досягнення у сфері штучного інтелектуслід спершу відповісти на питання як машина може імітувати мислення людини. Однієюз найпоширеніших відповідей на цей час є така, що приймає точку зоруконнекціонізму. Тобто сверджується, що найкращим способом є моделювання машинза принципом будови основних нервових структур.
Також,на основ відповіді на попереднє питання виникає нове, що постає основноюпроблемою на сучасному етапі розвитку наук, що займаються створенням штучногоінтелекту. Якщо змоделювати штучну людину, при цьому врахувавши всі недолікисправжньої істоти, чи можливо, щоб комп’ютер перевершив живу істоту? Адже вжезараз деякі програми працюють ефективніше за людське мислення. Але більшість зних, на даний момент, лише грубі бідробки тонкого мисленнєвого апаратулюдського мислення. Комп'ютери можуть вирішувати деякізавдання, наприклад складні математичні, швидше і точніше, ніж люди, але завдання,що вимагають узагальнень та навчання новим патернам поведінки, люди вирішуютькраще комп'ютерів.
Для більш-менш об’єктивного порівняння можливостей мозку ікомп’ютеру можна взяти показник потужності кожного. Спробуємо оцінитипотужність людського мозку комп'ютерними мірками. Він складається з приблизно100 млрд. нейронів. Кожен нейрон представляє собою мініатюрний «процесор» іпов'язаний з іншими нейронами 5 тисячами синапсів. У зв'язку з хімічноюприродою передачі інформації, затримка нейрона становить 0.01 сек., тобторобоча частота нейрона близько 100 Гц. Кожен сигнал синапсу можна оцінитиприблизно в 5 біт. В результаті отримуємо потужність одного нейрона – 1000000оп / с. Для всього мозку — 10 ^ 17 оп / с. На сьогоднішній день середнійдомашній комп'ютер володіє продуктивністю 10 ^ 9 оп / с, найпотужніші у світікомп'ютери — приблизно 10 ^ 13 оп / с, що поки в 10 тисяч разів меншепотужності людського мозку.
Слід враховувати, що просте порівняння потужності не можеохарактеризувати ефективність інтелекту. Людський мозок має оптимізованунайкращим чином організацію, здатність використовувати досвід минулих поколінь,володіє самонавчанням, самореструктурізаціею. Щоб оцінити продуктивність одноготільки зорового апарату людини досить згадати, що кожну 1/16 секунди вінаналізує зображення, що в тисячі разів перевищуе здатність до розрішеннянайсучасніших фотокамер. За цей час мозок встигає виділити окремі об'єкти,співвіднести їх з минулим досвідом, зарахувати до певних груп, зіставитиінформацію лівого і правого ока, на підставі чого прорахувати відстань докожного з об'єктів, направити зіницю в найбільш ефективну крапку в контекстідосліджуваного образу.
Отже,наврядчи на даному етапі можна говорити про вже існуюче перевершення людськогомозку штучним інтелектом. Поки що не збудуться жахи, що вже давно передрікаєнам наукова фантастика.
Прикладиіснування штучного інтелекту
Позиціюючипроблему штучного інтелекту як дуже актуальну і сучасну, неможливо не токнутисятого, як саме він використовується в сучасному суспільстві. Так як мирозглядаємо штучний інтелект з психологічної точки зору, слід також охопитивіяння, які він привносить до свідомості суспільства.
Шаховийкомп’ютер
Майбутьнайпопулярнішим прикладом штучного інтелекту є шаховий комп'ютер — спеціалізований комп'ютер для гри в шахи. Ідея автомата, що дозволяв би грати ушахи за відсутності партнера виникла ще в 18 столітті. У СРСР з середини 80 років випускалисяспоживчі шахові комп'ютери
Сьогоднішахові програми використовуються доволі повсякденно, як і задумувалося в 18столітті, вони допомагають замінити реального супротивника. Іноді, навіть,перемагають чемпіонів світу. Наприклад один з матчів Каспарова і DeepBlueзавершився нічиєю. Але що саме лежить в основі висловлювання «комп’ютер протилюдини»?
Алгоритм,який використовується програмістами IBM, призначений для пошуку потрібних ходівсеред усіх можливих комбінацій. Обмежені апаратні засоби, у свою чергу,змушують вчених шукати варіанти зменшення часу пошуку без значної втратиякості. За словами Кемпбелла, алгоритм Deep Blue передбачає кількісну оцінкукожного ходу. Оцінюється він за наступними параметрами:
1. Чидасть перевагу на дошці? Ходи, що ведуть до поразки комп'ютера, відкидаютьсявідразу ж.
2.Популярність даного ходу. Для цього в Deep Blue довелося впровадити базу данихз інформацією про шахові поєдинки серед професіоналів. Хід, до якого в схожійситуації вдалися багато хто з гросмейстерів, має шанси заробити більше«очок».
3.Рівень майстерності гросмейстерів, які скористалися цим ходом. Таким чином,хід, зроблений чемпіоном світу, отримує більш високу оцінку.
4.Відносна частота даного ходу. Чим частіше хід зустрічається в інших іграх, тимвище ймовірність його оптимальності в схожій ситуації.
5.Наявність коментарів до ходу. Багато спортивних коментаторів у репортажах зшахових матчів вказують на сильні і слабкі ходи гросмейстерів. Якщо певний хідбув названий «сильним», то його шанси стати обраним зростають.
Яквидно, ніякої містики в роботі DeepBlue немає. В основному наявність«розумної» програми передбачає реалізацію в ній якісного механізмувідбору комбінацій. Тому і словосполучення «людина проти комп'ютера»в даному випадку втрачає сенс, тому що з іншої сторони дошки знаходиться не"інтелектуальна" машина або комп'ютерний продукт, а всього лишепрограма, розроблена і впроваджена все тими ж homo sapiens.
MYCIN
Це експертна система, розроблена на початку 1970х років вСтендфордскому університеті. MYCIN буласпроектована для діагностування бактерій, що викликають важкі інфекції, такі якбактеріємія і менінгіт, а також для рекомендації необхідної кількостіантибіотиків в залежності від маси тіла пацієнта. Також MYCIN використовувалася для діагностики захворювань згортаннякрові.
MYCIN оперувала за допомогою досить простоїмашини виводу, і база знань з приблизно 600 правил. Після запуску, програма ставила користувачеві (лікарю) довгий рядпростих «так / ні» або текстових питань. Врезультаті, система надавала список підозрюваних бактерій, відсортований займовірністю, надавала список питань і правил, які привели її до саме такогоранжування діагнозів, а також рекомендувала курс лікування.
Незважаючи на успіх MYCIN, вона викликаладебати з приводу правомірності її виводів. Дослідження, проведені в StanfordMedical School, виявили, що MYCIN пропонує прийнятну терапію приблизно у 69%випадків, що краще, ніж у експертів з інфекційних хвороб, яких оцінювали затими ж критеріями. Фактично, MYCIN ніколи невикористовувалася на практиці. І не через низьку її ефективність. Деякідослідники піднімали етичні та правові питання, пов'язані з використаннямкомп'ютерів в медицині — якщо програма дає неправильний прогноз або пропонуєнеправильне лікування, хто має відповідати за це? Тим не менше, найбільшоюпроблемою і справжньою причиною, чому MYCIN не використовується у повсякденнійпрактиці, був стан технологій. У наш час, подібна система була б інтегрована зсистемою медичних записів, отримувала б відповіді на свої запитання з базиданих про пацієнтів, і була б значно менш залежна від введення інформаціїлікарем. У 1970-х, сеанс роботи з MYCIN міг легко зайняти 30 хвилин і більше — що становить неприпустимі втрати часу.
Головними труднощами, з якою зіткнулися по час розробки MYCINі наступних експертних систем, було «витяг» знань з досвіду людей-експертів дляформування бази правил. Зараз даними питаннями займається інженерія знань.
Розпізнавання мовлення
Перший пристрій для розпізнавання мовленняз'явилося в 1952 році, воно могло розпізнавати вимовлені людиною цифри.Комерційні програми з розпізнавання голосу з'явилися на початку 90 років.Зазвичай їх використовують люди, які через травми рук не в змозі набиративелику кількість тексту. Наприклад, Dragon NaturallySpeaking, Voice Navigator. Збільшенняобчислювальних потужностей мобільних пристроїв дозволило і для них створитипрограми з функцією розпізнавання мови. Серед таких програм варто відзначитиMicrosoft Voice Command. Інтелектуальні мовнірішення, що дозволяють автоматично синтезувати і розпізнавати людську мову, єнаступним етапом розвитку інтерактивних голосових систем (IVR). Останнім часом у телефонних інтерактивних програмахвсе частіше використовують системи автоматичного розпізнавання і синтезу мови.При цьому системи розпізнавання є незалежними від дикторів, тобто розпізнаютьголос будь-якої людини. Наступним кроком технологій розпізнаваннямовлення можна вважати розвиток так званих Silent Speech Interfaces (SSI)(Інтерфейсів безмовного Доступу). Ці системиобробки мовлення базуються на одержанні й обробці мовних сигналів на раннійстадії артикулювання. Даний етап розвитку розпізнавання мовлення викликанийдвома істотними недоліками сучасних систем розпізнавання: надмірна чутливістьдо шумів, а також на необхідності чіткої і ясної мови при зверненні до системирозпізнавання. Підхід, заснований на SSI, полягає в тому, щоб використовуватинові сенсори, які не піддаються впливу шумів як доповнення до обробленихакустичним сигналами.Класифікація систем розпізнавання мовлення За якостями За роміром словника Диктозалежні Дикто незалежні Обмежений темою набір слів Словник великого розміру За типом структурної одиниці Аллофон Фонема Дифон, трифон Слово, фраза За типом мовлення За метою Ізольовані слова Цілісне мовлення Командні системи Системи диктування Системи розпізнавання За механізмом функціонування Найпростіші детектори Експертні системи Вірогіднісно-мережеві системи Зворотні задачі
Також існує безліч менш глобальних, але безперечно цікавих іоригінальних винаходів. Таких як, наприклад в той час як американські вчені минулого поколіннябезуспішно намагалися побудувати комп'ютер, подібний мозку, японський вчений створивтакий комп'ютер, використовуючи реальні нервові клітини, змішані з електроннимипристроями, в спробі виготовити на половину штучну нейронну мережу. Вінуспішно поєднав клітини з напівпровідниковю сумішшю індію та окису олова івиявив, що при дуже слабкій електричнійстимуляції органічні клітини реагують керованим зростанням. Занадто ранодумати про штучний мозкок, але подібні пристрої могли б виступити в роліінтерфейсу між нервовою системою і такими протезами, як штучні очі.
/>
(Малюнокілюструє ріст клітин при малому електричному стимулюванні)
Такожодним з популярних нині напрямків є робототехніка. На даний момент існує великакількість видів роботів. Від звичайних маніпуляторів до таких, для створенняяких використовується штучний інтелект. Найближчим до нас прикладом такого«розумного» роботу може бути Sam. Він був створений фірмою Samsung на базінетбука і запущений до найбільших вузів України. Мета цього – привернення увагимолоді до передових інформаційних технологій.
Під час турне робот має спілкуватися зі студентами,встановлюючи при цьому справжній живий діалог. Щобзав'язати спілкування, SAM має під'їжджати до студентів і, наприклад, питати,як потрапити в деканат, бібліотеки або кабінет ректора. Йогоспіврозмовники, у свою чергу, можуть вводити свої питання в чат-інтерфейсі наклавіатурі нетбука Samsung і отримувати відповіді. Причому SAM може не простовиводити відповіді на екран нетбука в вигляді тексту, але і озвучувати їх.
Турне робота охопить усі куточки країни — від Львова доДонецька і від Києва до Одеси.». 12 травня роботвідвідав ряд корпусів Київського національного університету ім. Т.Шевченка. «SAM уособлює симбіоз реального тавіртуального спілкування, звичний для активних користувачів соціальних мереж.»,- зазначив Костянтин Череповський, PR-менеджер компанії« Samsung ElectronicsУкраїна». На власному досвіді спілкування з даним представником сучасної«інтелектуальної» теми я можу сказати, що він має досить дружній інтерфейс.Зображення очей на екрані, що рухаються в момент, коли комп’ютер обробляєвідповідь, дещо посилює враження живого спілкування. Також SAM підтримуєвідносно живий і інтнлнктуальних діалог, за допомогою вбудованої веб камериможе розпізнавати зображення (наприклад наявність окулярів на обличчі). Одним зпомічених мною недоліків є затримка з відповіддю. Іноді обробка її вимагаєдосить великого часу. Також відчуття «живого діалогу», який постульованийкомпанією виробником, дещо знижується через необхідність вводити відповіді зклавіатури. Загалом така подія має стати вельми захоплюючим і інформативнимдосвідом для студентів вузів, в яках SAM побуває.
Ставлення суспільства
Таке глибоке входження штучного інтелекту в наше повсякденнежиття не може не викликати появи різних суджень і точок зору з цього приводу.
Якщо розглядати тенденції, що намітилися серед світовихрелігій, то загалом вони не заперечують можливості створення штучногоінтелекту, а деякі навіть активно підтримують. Цікавою є точки зору послідовників авраамічних релігій. За однією з них мозок, роботуякого намагаються імітувати системи не бере участі в процесі мислення, не єджерелом свідомості і будь-який інший розумової діяльності. Відповідно доіншої, мозок бере участь в процесі мислення, але у вигляді «передавача»інформації від душі. Мозок відповідальний за такі «прості» функції, якбезумовні рефлекси, реакція на біль тощо. Обидві позиції, на даний момент,зазвичай не визнаються наукою, так як поняття душа не розглядається сучасноюнаукою в якості наукової категорії.
Найкраще, на мою думку, сучасне ставлення суспільства до ідеїстворення штучного інтелекту відображає мистецтво. Наприкладнауково-фантастичні фільми, романи, тощо.
У науково-фантастичній літературі штучнийінтелект частіше всього зображується як сила, яка намагається повалити владулюдини («Космічна одіссея 2001 року», Скайнет, Colossus, «Матриця», «Той, щобіжить по лезу») або обслуговуючий гуманоїд («Двохсотрічна людина», «Зоряні війни»).
Цікаве бачення майбутнього представлено вромані «Вибір за Т'юрингом» письменника-фантаста Гаррі Гаррісона і вченогоМарвіна Мінські. Автори міркують на тему втрати людяності в людини, у мозокякого була вживлена ЕОМ, і придбання людяності машиною з штучним інтелектом, впам'ять якої була скопійована інформація з головного мозку людини. Деякінаукові фантасти, наприклад Вернор Віндж (Grimm’s World, TheWitling, A Fire Upon the Deep), також роздумували над наслідками появи штучного інтелекту, яке,мабуть, викличе різкі драматичні зміни в суспільстві. Одні з найбільш глибокихдосліджень проблематики штучного інтелекту проявляються у творчості фантаста іфілософа Станіслава Лемма, що напсав такі відомі твори як Солярис, Людина зМарса, Кіберіада, Казки роботів, тощо.
Отже, загалом можна підвести підсумок, що загаломлюдство не довіряє таким складним технологіям і в деякій мірі боїться їх неконтрольованості, але разом з тим радо користується досягненнями вчених у ційсфері не задумуючись над цим. Про це можна судити з того, що тема штучногорозуму, що захопив світ є досить розповсюдженою і популярною. Але окреміособистості, що схильні глибше іти у своєму пізнанні і розумінні проблемиштучного інтелекту, натикаються на величезну кількість етичних і глибокофілософських проблем, що він підіймає самою можливістю свого існування.
Частина ІІІ. Гностична діяльність штучного інтелекту
Гностичну діяльність машини я розгляну на прикладікомп’ютерного зору і сприймання мови. Зорова модальність – найголовніша длялюдини, так як машини у пізнанні світу імітують нас, то і в них зорове пізнаннялишається одним основних джерел інформації. Проблеми мовлення я торкнуласячерез те, що це одна з тих сфер, в якій активно бере участь психологія. Існуєдва способи за якими машина може обробляти інформацію, що надійшла ззовнішнього світу.
Перший подібний до дії простих рефлексів. Тобто з усьогоканалу інформації витягається частина, що відразу надсилається на відповідні їїмодальності аферентні структури або спочатку поєднується з іншою інформацією.Машини, що працюють за такою схемою досить швидко реагують на зовнішніподразники і у відповідь певним чином змінюють свою програму дій.
Альтернатива цьому підходу – підхід модельний. Тобто стимули,що надійшли ззовні спочатку конструюють модель зовнішнього світу. При цьомуробота починається функції. Що відображає стан світу W на окремі стимули S. Цяфункція S = f (W) добревідома і вирішується в області комп’ютерної графіки. Робота ж комп’ютерногобачення прямо протилежна до завдання комп’ютерної графіки, тобто ми повинні обрахуватиW через S. Але в цьому і полягає проблема, бо з картини світу ми не в змозівідновити всі аспекти його існування. Інша проблема цього методу полягає унадмірності задач, поставлених перед програмою. Щоб вирахувати функцію f у комп’ютерній графіці для 1 кадру може знадобитися біля кількохгодин, а для вирахування оборотної функції – ще більше. До того ж, на відмінувід промальовування комп”ютерної графіки, штучному інтелекту для виконання йогозавдань рідко коли потрібна настільки детальна картина світу.
Формування зображення
Світло, що розсіюється предметами на «сцені» концентрується упроцесі зору і утворює двовимірне зображення. Площина, на якій утворюєтьсязображення, покрита фото чутливими елементами, наприклад фоторецепторами,галогенами срібла або елементи з зарядовим зв’язком (Charge-Coupled Device —
CCD). На початкових етапах розпізнання візуальних об’єктівкомп’ютер проходить через ряд елементарних функцій, для того, щоб потім перейтидо більш складного аналогу зображення. Це відповідає сенсорним процесам іпроцесам елементарної обробки візуальної інформації у зоровому аналізаторілюдини.
Сенсорні процеси
Світло
Програма розпізнавання об’єктів починає з обробки яскравості пікселівотриманого на площині зображення. Яскравість залежить від кількості фотонів,направлених на фото чутливий елемент з деякої точки сцени, де інтенсивністьпереводиться в відносні одиниці, розмах яких тим більший, чим більше бажанерозширення і точність результату. Кількість світла (фотонів) залежить відбагатьох факторів, таких як вид відбиваючої поверхні і інші елементи сцени, щотакож можуть розсіювати світло. Існує кілька видів поверхонь, більшістьреальних матеріалів поєднують у собі розсіювальні і поглинаючі характеристики.Саме моделювання таких об’єктів є головною задачею комп’ютерної графіки, методполягає в імітуванні фізичного джерела світла і подальшого багаторазовоговідбивання променю.
Колір
Колір у фізичному сенсі програмується комбінацією хвильдеяких частот. Чистими, одно частотними, кольорами є тільки сім, що входять увеселку. Але це не означає, що для створення кольорового зображення необхіднооперувати всіма сімома, експерименти, розпочаті ще Томасом Юнгом доводять, щодля створення будь-якого кольору, принаймні такого, що може сприйматися людиною,достатньо оперувати трьома довжинами хвиль: червоний – 700 нм, зелений – 546нм, синій – 436 нм. Правильність такого підходу підтверджує людська зоровасистема, що складається з трьох видів колбочок.
Перший етап обробки зображення
Перший етап обробки зображення полягає у підготовцізображення до розпізнавання, тут прибирається шум (згладжування) на зображенняі розпізнаються його контурів, сегментація. Ці операції проводяться локально,тобто для окремої групи пікселів, не зважаючи на все зображення, для їхвиконання немає потреби у розумінні який саме об’єкт зображено. Саме тому такіпочаткові операції можуть проводитися паралельно. Операція згладжуванняпроводиться на основі обрахування значення яскравості пікселя на основі значеньяскравості його елементів. Як значення яскравості береться середнє значенняяскравості сусідніх пік селів, а для визначення кількості таких пік селів, щослід взяти для обрахунку існує спеціальна формула гауса. Наступною операцією євіднаходження країв, тобто ліній розділювачами для областей зі значною різницеюв яскравості. Контури зазвичай відповідають важливим об’єктам на сцені. Такаоперація необхідна для зняття перенасиченості і перевантаження деталямикартини, перетворення її у більш абстраговану, узагальнену. Контури відносятьсятільки до такої, окремо взятої експозиції і тому не можуть дати визначенняоб’єктам, що на ній знаходяться. Але вони допомагають в цьому у ході подальшоїобробки зображення. Краї, що утворюються не є точними. Деякі окремі частини, щона сцені утворюють одну лінію, не з’єднуються у цілісність на отриманомузображення. Деякі з країв утворені шумом і не несуть смислового навантаження.Це пояснює необхідність проведення попереднього прибирання шуму, бо шумові пікселі створюють додаткові пікові точки, що призводить до виникнення шумовихконтурів. На малюнку зображено зниження інтенсивності шумових пікових точок х2і х3 і константність істинної пікової точки х1.
/>
а) Попіксельна діаграма зображення до згладжування
/>
б) Попіксельна діаграма після згладжування
Після такої обробки слід об’єднати окремі пік селі країв увласне краї. Для цього користуються допущенням, що будь-які пік селі, щознаходяться поруч і мають однакову орієнтацію складають одну лінію краю.
Так як машинне сприйняття побудоване на реалізації загальнихпринципів сприйняття людини, то наступною операцією стає та, що призводить доутворення конгруентного образу, адже мозок людини не сприймає навколишній світяк набір точок, а виділяє з нього деякі цілісні об’єкти. Як і мозок людини(мова іде про першоразове сприйняття деякого предмету чи явища, а не послідуючейого сприйняття, де багато залежить від попереднього досвіду і йогоузагальнення), машина розбиває цілісно сприйняту картину світу на групи.Розбиття проходить на основі врахування особливостей характеристик пікселів,адже можна допустити, що у межах одного об’єкта вони змінюються мало. Але такерозбиття, що базується на елементарних і низькорівневих знаннях про зображеннячасто може призвести до помилок і хибних результатів. Для уточнення слідвикористовувати високо рівневі знання про те, які саме предмети можутьзустрітися вданій схемі.
Другий етап обробки інформації, витягання трьохвимірногозображення.
Мета сприйняття і обробки візуальної інформації – взаємодія зоточуючим світом. Сцена навколишнього середовища є тривимірною, а тому дляуспішної взаємодії з нею машині необхідні знання не про двовимірне зображення,а про тривимірну модель. Для переводу зображення у модель необхідно завершитипроцес розпізнавання об’єктів, який було розпочато на елементарному рівні.Після цього, витягаючи інформацію як з даної картини, так і з деякихузагальнених відомостей про об’єкт машини, подібно до людини, може побудуватицілісний, конгруентний образ предмету.
Для початку слід завершити процедуру сегментації, розпочатуще на елементарному рівні. Також в розпізнавання образу входить визначенняорієнтації і позиції образу відносно суб’єкта сприймання, визначення йогоформи. Це, власне і є витягненням тривимірної інформації з зображення.Орієнтація і позиція об’єкта є однією з найважливіших елементів інформації, такяк дозволяє орієнтуватися у просторі. При зміні положення предмету відноснокамери, незмінною лишається лише форма предмету, тобто форма грає роль узберіганні, деякою мірою, константності упізнавання предмету при зміні йогоположення у тривимірному просторі. Але найбільш вагомою функцією форми єрозпізнавання об’єкту з можливістю його подальшої класифікації.
Тепер постає питання, як же дістати інформацію про третійвимір з початкового зображення. Для цього у людській зоровій системіпередбачено багато можливостей, які можна класифікувати за загальним принципомдії: бінокулярні і монокулярні.
Ось приклад такої класифікації за Величковським:Ознаки глибини Бінокулярність/ монокулярність Абсолютність/ відносність Якісність/ кількісність Бінокулярний паралакс Б. В. К. Вергентні рухи очей (до 3 м) Б. А. К. Акомодація хришталика (до 2 м) М. А. К. Монокулярний параллакс (руховий) М. А./В. К. Перекриття поверхонь, текстур М. В. Я. Градієнти величин, густини М. А./В. К. Знання розмірів, віддаленності М. А. К. Висота положення у полі зору М. В. К. Розмирість контурів, колір М. В. К. Розподіл світла і тіні М. В. Я./К. Розділення на фігуру і фон М. В. Я.
Тепер можна розглянути за допомогою яких ознак машина будуєтретій вимір. Кожна з них має деякі недоліки, а в сумі всі разом дають доситьточну картину сцени.
Рух
Відеокамери дозволяють отримувати до кількох десятків кадрівза секунду і різниця між кадрами може стати вагомим джерелом інформації протретій вимір сцени, така послідовна у часі зміна у зображенні одного об’єктуназивається оптичним потоком. З нього витягуються дані, за якими будуєтьсямодель, такими даними можуть стати напрям вектору руху, швидкість змінизображення, прискорення зміни зображення, тощо.
Бінокулярні стерео дані.
Якщо машина створена за подобою людини, то має отримати відсвого творця і дуже важливу деталь – бінокулярний зір. Бінокулярна побудоватривимірного зображення побудована на принципі, що ми розглянули вище. Тількидіставання кількох зображень досягається не за рахунок руху, а за рахуноксприймання одночасно двох різних зображень. Різниця між ними полягає у зсунутості одне відносно одного, а отже після співставлення двох зображень будеідентифікована неузгодженість. Третій вимір відновлюється на основі аналізудивергенції осей зору і неузгодженості зображень, вираховуючи відстань дооб’єкта за геометричними правилами.
Градієнти текстури
Під текстурою у повсякденному житті розуміється властивостіоб’єктів, пов’язані з тактильними відчуттями, що вони викликають. А у проблемізорового сприйняття простору – наявність малюнку, що повторюється на поверхні іякий може бути віднайдений візуально. Також до текстури відноситься і поняттягустоти – частоти розташування елементів малюнку текстури, текстелів. Існує двіпричини, через які однаковість малюнку може викривлюватись: різні відстані міжкамерою і текстелами; різні ракурси на тек стели. За допомогою математичногоаналізу можна створити градієнти текстури, тобто показники швидкості змінирізних характеристик текстелів. Для відтворення даних про форму машинивиконують двофазне завдання
1) вимір градієнтів текстур
2) оцінка значень можливих змін форми і положення,що могли б призвести до такої зміни текстури
Затінення
Затінення – зміна інтенсивності світла, визначається геометричною
будовою сцени і характеристиками поверхонь. Задачу повідтворенню характеристик сцени за яскравістю пік селів майже неможливорозв’язати і такий спосіб обрахунку третього виміру застосовний тільки внайпростіших випадках. До складнощів призводить велика кількість взаємовідбивань променів при наявності великої кількості предметів з різними,невідомими коефіцієнтами заломлення. Безсумнівно, люди здатні до такого типуаналізу навколишнього світу, тому вказана проблема є одним з напрямків для подальшоговивчення.
Контури
/>
Контурний малюнок може дати нам велику кількість інформаціїпро взаємо розташування предметів на ньому, нахилі і попороті поверхонь. Такевідчуття може досягатися завдяки поєднанню знань вищого рівня (досвіду) зізнаннями нижчого (ситуативними). Всі лінії на малюнку можуть приймати багатозначень, і важливою задачею постає розмітка їх, тобто оцінка значення кожної зних. Саме ця задача була однією з найперших, що вивчалася у розділі машинногозору. Кожну лінію можна віднести до проекції лімба (сукупність точок, що мибачимо там, де лінія зору походить по дотичній до поверхні) чи краю (звичайналінія). При цьому краї діляться на вгнуті, опуклі чи закриваючі (ті, що закриваютьте, що знаходиться за ними). Кожній лінії можна присвоїти символ, що будепозначати її вид, такий символ називають міткою. На прикладі триграннихоб’єктів Хаффмен і Клоувс незалежно один від одного створили повний переліквсіх можливих групувань цих видів контурів. При використанні цього словникаоб’єднань при аналізі контурного малюнка необхідно вирішувати задачу визначеннятого, які поєднання є співставні. Для цього існує правило, за яким кожній лініїможна присвоїти тільки одну мітку.
Розпізнавання об’єктів.
У людській свідомості усі об’єкти класифіковані. Цякласифікація випрацьовується протягом усього життя і відрізняється високимступенем узагальненості. В області штучного інтелекту здатність розпізнаватипредмети прийнято називати розпізнаванням об’єктів. До цього відноситься якрозпізнавання класів об’єктів (собака) так і одиничних об’єктів (мій собакаРекс). Люди можуть розпізнавати не тільки об’єкти, але і види діяльності,наприклад посмішку, біг, писання, тощо, але для машин розпізнавання такоговисокого рівня знаходиться ще у стадії розробки. Складності викликає навітьелементарне розпізнавання об’єктів, адже машина має робити це незалежно відосвітлення, оточення, положення, умов бачення.
Насамперед постає проблема сегментації об’єктів. Існує дваспособу детектування об’єкту. «знизу-вверх» і «зверху-вниз». Перший з них можепризводити до багатьох помилок, але є на багато простішим для обрахунку. Вігполягає у розбитті об’єктів на сегменти і аналіз сегментів. Другий спосіб, щозазвичай використовується у всіх системах, вимагає складних обрахунків, аджеполягає у пошуку необхідного об’єкта на площині всього зображення. На даниймомент перспектива вбачається у розвитку і покращенні першого методу.
Іншою задачею є розпізнавання об’єкту незалежно відмодифікацій його форми чи положення. Слід зазначити, що зміни між об’єктамивсередині класу і через модифікації станів носять різний характер. Одним зваріантів розв’язання цієї проблеми є зведення об’єктів до початково заданогостану, але для цього необхідно задати всі об’єкти.
Існує два підходи до розпізнавання об’єктів: розпізнавання зврахуванням яскравості і розпізнавання з врахуванням характеристик. При обранніпершого методу за основу береться пошук області пікселів, що відповідаєшуканому об’єкту і обробка цієї області. Цей спосіб ґрунтується на аналізінеоброблених зображень. Другий метод навпаки, використовує вже сегментованізображення. Це допомагає досягнути скорочення часу детектування образу ідосягнення інваріантності освітлення.
Цікавою задачею також постає оцінка пози, тобто позиції іорієнтації, об’єкту. Це відіграє велику роль при необхідності маніпулюванняпредметами. Задача вирішується досить просто і визначено, для цьоговикористовується метод вирівнювання. В його основу покладено порівняння контурівпроекції тривимірної моделі при її трансформації і двовимірного зображення.
Комп’ютерна мова
Одна із важливих задач, що стоїть перед сучасними комп”ютерами– розпізнавання і генерація поми. Мова – домінуюча форма спілкування у людей.Розпізнавання мови можна інтерпретувати як власне розпізнавання порядку слів,що було сказано або ж як ідентифікацію смислу фрагментів мовлення. Мова – дожескладна система, для комп’ютерів особливо складним виявляється велика їїзашумленість під зашумленістю мови можна розуміти як звичайні фізичні шуми, такі нескінченну кількість варіантів вимови. Саме це підштовхнуло вчених до думки,що розпізнання мови має будуватися на імовірнісній основі. Основні моделі, щовикористовуються у розпізнавачах мови зазвичай дуже прості. Наприклад модельдвослівних поєднань вираховує вірогідність використання одного слова, взалежності від іншого. Таке обрахування необхідне при появі у словосполученніомофонів. В основі розпізнавання мови лежить те, що у всіх мовах використовуєтьсяв основному досить обмежений і однаковий набір фонем (40-50). Але є і такі, щовикористовуються тільки в окремих мовах.
Звуки мови
Сприйняття звуків для машини проходить з допомогою мікрофонуі аналогово-цифрового перетворювача, що виміряє величину струму, у якиймікрофон перетворив коливання мембрани. Для обробки мови зазвичайвикористовуються частоти від 8 до 16 кГц. Хоча звукові частоти мови і досягаютьтаких високих значень, але зміна змісту сигналу проходить набагато рідше,приблизно 100 Гц. Через це, для зменшення об’єму опрацювання інформації, прианалізі використовують більші проміжки часу, фрейми (~ 10 мс). У межах кожногофрейму його характеристики задаються векторами.
/>
1) частотний ряд деякого звуку.
2) Оброблений сигнал
3) Фрейми з виділеними характеристиками (3)
У реальних системах використовуються сотні такиххарактеристик фреймів, але все ж. очевидно, що при такій обробці деяка частинаінформації втрачається. Задача обробки звукової інформації полягає у тому, щоб,знищивши усі шуми на кшталт гучності, швидкості промови, тощо, вичленуватицентральні характеристики, що є основними для даного звуку. Допомагає у цьомутакож класифікація фонем за їх складом. Наприклад якщо подібним образомописувати букву «т», то можна сказати, що вона складається з трьох станів:тихий початок, невеликий вибух (звільнення повітря) в середині і, як правило,шипіння у кінці.
Логічні системи в мові
Для того, щоб підтримувати розмови з людьми необхідно вмітирозпізнавати зли тну мову, а не тільки окремі її елементи… але насправді,зв’язна мова це не просто послідовність її елементів. І послідовність найбільшімовірних слів не є найбільш імовірною послідовністю слів. Отже, вирахувавшинайбільш імовірні слова за використанням фонем, машина не може точно визначитиречення в цілому, адже використання слів значно змінюється в залежності відтого, в оточенні яких слів воно знаходиться і на якій позиції. Інша проблема –проблема сегментації, тобто розрізнення кінця одного слова і початку іншого,адже зазвичай у повсякденному мовленні у реченні між словами немає пауз. Як ібільшість проблем у розпізнанні мови, ця задача вирішується на базіімовірнісних обрахунків.
Розуміння мови
Розробка способів розуміння природного мовлення є одним знайперспективніших і найнеобхідніших напрямків розвитку галузі штучного інтелекту.Цей напрям базується на методах логічного та імовірнісного пред’явлення знань іформуванні роздумів. На відміну від інших областей штучного інтелекту, саме цяпотребує детального дослідження поведінки людей, адже мова – засіб комунікації,притаманний тільки їм і у великій мірі відображає людську психологію. Людипосилаюсь інформацію, закодовану у мові, з метою досягнення деяких цілей, мовленнєвіакти є нічим іншим, як спробою примусити інших суб’єктів зреагувати певнимчином. Мова – єдина в своєму роді знакова система, що використовує граматикудля генерації структурованих повідомлень, що характеризуються необмеженоюрізновидністю. Усі варіанти використання мови є ситуативними, тобто смислфрагменту мовлення залежить від ситуації, в якій був створений.
Для покращення розуміння граматичних схем, машини можутьвикористовувати розширення граматики, тобто граматику визначених висловлювань (DefiniteClause Grammar— DCG). Важливою проблемою при розумінні природної мови є їїнеоднозначність. Більшість висловлювань може приймати декілька значень, вірне зяких, на даний момент, лише одне. Відкинення неоднозначності виконується наоснові знань про світ і сучасну ситуацію у ньому.
Не дивлячись на те, що такі сучасні системи генерування мовияк Parry? NET talk та інші досить добре можуть імітувати природній діалог злюдиною, вони, все ж, не можуть обманювати співрозмовника дуже довго. Їхпроблема полягає не у пам’яті, не у здатності генерувати вагомі речення, а унедостатньому розумінні машинами мови, що вони використовують. Комп’ютернийаналіз складних взаємовідносин у середині мови призвів до створення доситьскладних програм, що здатні розуміти мову. Прекрасним прикладом для цього можеслугувати перекладач Google.
Навчаннямашин. Навчання на основі спостережень
Научіння – одна з найнеобхідніших якостей людини, без якої мине тільки не розвинулися до сучасного стану, але і просто вимерли б як вид. Зрозуміло,що одним з перспективних напрямків вивчення штучного інтелекту є проблеманаучіння машин. Якщо вдасться створити такий комп’ютер, що буде здатен сам себевчити, то відпаде необхідність створення нових програм для засвоєння ним новихможливостей. Проблема научіння лежить в аспекті використання сприйнятоїінформації не тільки для виконання дій, а і для підвищення здібностей машини. Існуєкілька видів научіння.
Научіння, що контролюється базується на вивченні деякоїфункції на її вхідних та вихідних даних. Правильне вихідне значення можезадаватися учителем або з власних спостережень комп’ютера. Якщо машина можеспостерігати за своїми діями, то не виникає проблем з використанням методуконтрольованого научіння. У інших випадках, тобто якщо результати дій неповністю доступні для сприйняття, зазвичай використовується спосібнеконтрольованого научіння. Цей метод використовується коли комп’єютер не можевизначити правильність чи неправильність вихідного значення функції, вінбазується на імовірнісних обрахунках. Найбільш загальною з цих категорій єзадача научіння з підкріпленням. Такий спосіб научіння не потребує вказівокучителя, а працює завдяки підкріпленням.
Іншим важливим аспектом в навчанні машин є наявністьпочаткових знань. У процесі навчання, людина отримує безліч побічних знань, щодозволяє краще накласти новий матеріал на вже існуючий. Також і для штучногоінтелекту, значно продуктивнішим є навчання, що накладається на деякий вжеіснуючий багаж знань.
Індуктивне навчання.
Будь – який алгоритм навчання включає в себе задачувідновлення функції, що призвела до правильного результату або побудови іншоїфункції, близької до неї. Функція, яку генерує комп‘ютер називається гіпотезою.Якісна гіпотеза має правильно передрікати появу ще не отриманих результатів, вцьому і постає фундаментальна проблема індукції.
З самого початку не можливо визначити, чи можливо знайти такугіпотезу. Можливість знаходження гіпотези залежить від обраного просторугіпотез. Прийнято вважати, що задачу навчання можливо реалізувати, якщо простіргіпотез містить необхідну функцію, і що її реалізувати неможливо, якщо простіргіпотез такої функції не містить.
Навчання ансамблю
На відміну від індуктивного навчання, цей метод постоїть утому, що з простору слід обирати цілий набір гіпотез. Потім проводитьсякомбінування передбачень на їх основі і голосування для визначення найкращоїкласифікації нового прикладу. Причина переваги такого методу полягає у меншійвірогідності обрання неправильної класифікації прикладу, адже на відміну відпопереднього способу, де висновок робився на результаті однієї гіпотези, приобранні ансамблю гіпотез (наприклад їх кількість — 5), для обрання хибноїкласифікації помилку повинні зробити щонайменше 3 з 5 відібраних гіпотез.
Також побудова ансамблю гіпотез допомагає у побудові новихпросторів гіпотез, що сформовані з гіпотез першопочаткового простору. Такийпідхід призводить до побудови більш виразних просторів гіпотез.
Теорія обчислювального навчання
Вище було поставлене важливе питання, відповідь на яке покищо не давалася. Як саме можна впевнитися, що в результаті алгоритму навчаннябуло створено теорія, що дозволяє правильно прогнозувати майбутнє? А точніше – наскількивідтворена функція відповідає початковій. Пояснення того, що алгоритми навчанняпрацюють лежить у теорії обчислювального навчання, у основі якого лежитьпринцип, що говорить: «Будь-яка гіпотеза, що містить серйозні помилки, буде«відкрита» с великою імовірністю після обробки невеликої кількості прикладів,оскільки вона виносить неправильні передбачення. Тому будь-яка гіпотеза, щоспівставлень з достатньо великою кількістю прикладів під час навчання, знизькою імовірністю буде містити серйозні помилки; це означає, що вонаобов’язково буде приблизно правильно. З визначеною імовірністю» (Artificial Intelligence:A Modern Approach, Russel and Norvig)
Використаннязнань у навчанні
Такожслід окреслити проблему використання початково наданих, або вже здобутих знаньмашиною у подальшому процесі навчання. Апріорні знання можуть допомагати у навчанні,відмітаючи хибні гіпотези, які, за обставин відсутності таких знань,класифікувалися б як спів ставні. Успішне використання апріорних знань упроцесі навчання доводить, що ще більш перспективним є кумулятивне навчання,тобто таке, в якому комп’ютер підвищує свою здатність до навчання з набуттямбільшої кількості знань. У метода навчання на основі пояснення(Explanation-Based Learning — EBL) передбачається витягнення загальних правил зконкретних прикладів і узагальнення пояснень. Такий дедуктивний метод дозволяєперетворювати знання основних принципів у корисні, ефективні знанняспеціального значення.
«Машиннатворчість»
Одною з найперспективніших галузей в області штучногоінтелекту є штучна творчість. Творчість як феномен ще дуже мало вивчений у людини,це велике поле для сучасних психологів. Але на даному етапі існування штучногоінтелекту вже можливе моделювання творчого процесу, і можливо саме цемоделювання зможе допмогти нам у вивченні людської творчості.
Ось декілька прикладів комп’ютерних витворів мистецтва.(Соло,Когнитивная психология)
Поезія.
Програма RKCP моделює мову,засновуючись на матеріалах, що «читала». Наприклад вона написала хоку післячитання віршів Джонса Кітса і Уенді Денніс.
Душа
Тыразбил мне душу,
соквечности,
духмоих губ.
Музика.
Наданий момент машини дуже успішно справляються з задачею створення музикальнихтем на основі вже існуючих творів. Слабке місце таких програм – те, що довговони не можуть довго обманювати спеціалістів, що знаються на стилях музики.
Зображувальнемистецтво.
Існуютьпрограми, що значно полегшують дизайнерам роботу, але вони значно відрізняютьсявід тих, що створюють картини. Прикладом може стати робот Аарон, що створивкартини, що нагадують справжній живопис.
Увсіх приведених вище прикладах критерієм оцінки стає судження людей. Якщо на їхдумку витвір достатньо схожі на людську роботу, то він гідний високоїестетичної оцінки. Нам не вистачає об’єктивних критеріїв у творчості, і поки мине визначимо їх більш чітко, вона лишиться у руках людей окремих обчислювальнихмашин.
Процес творчості
Одним з важливих моментів і процесі творчості є перенос(транспонування) структур з однієї ситуації в іншу. Проблема транспонуванняоднією з найважливіших у психології мислення і сприйняття, що, як відомо, тіснопов’язані. Неможливість спостерігати процесів мислення, під час яких відбуваєтьсяперенос ідей з різних областей знань, призводить до труднощів у вирішенні цієїпроблеми.
Однією з характеристик сприйняття є його структурність.Структура, як носій деякого образу, може бути перенесена в нові умови без змін.Тоді буде утворено новий об’єкт, що зберігатиме початкові характеристики. Томупри дослідженні такого образу відчувається безпосередній зв’язок з початковоюструктурою. По пояснюється наявністю інваріантів перетворення. Наявністьінваріантів іноді маскуються трансформантами, тобто елементами, що змінюються,вони часто настільки змінюють ситуацію, що впізнати інваріанти майже неможливо.
Для проблеми штучного інтелекту безпосереднє значення маєдослідження закономірностей переносу інваріантів структури. Задача штучногоінтелекту – отримувати такі результати, які зазвичай отримуються в результатілюдської творчої діяльності не залежно від того, імітується творчий процеслюдини чи ні. У 1972 році Міжнародною фіршбурзькою групою був складений списокзадач, що стосуються штучного інтелекту. Другим пунктом у цьому списку ставаламашинна творчість в області музики, поезії, живопису. Вже описана вище проблемамашин у розумінні природної мові тісно пов’язана з проблемою виділенняструктурних інваріантів. Один смисл може бути виражений різними словами, томуця проблема також торкається вивчення закономірностей варіювання деякихситуацій, що зберігають інваріант – смисл. Таким чином, дана проблема тіснопов’язана з психологією творчості і дослідженнями творчого процесу а такожкібернетикою і проблемою розуміння машинами мови.
Основним сучасним методом вивчення транспортування є методмоделювання, що розроблений Захриповим для дослідження деяких функційкомпозитора і музикознавця. Цей метод полягає у штучному відтвореннівластивостей і якостей об’єкта. Аналіз машинних результатів дозволяє оцінитивірність гіпотез і ступінь вивченості об’єкту.
Не звертаючи уваги на популярність і розвиненість темимашинної творчості, багато хто вважає, що такі явища як інтуїція, інсайт, непіддаються алгоритмізації, на основі якої і побудовані сучасні обчислювальнімашини. Також існує думка (Захрипов, Моделювання творчості), що творчістьчастково складається з логічних структур і задача полягає саме у їх вивченні. Аваріювання, що також у деякій мірі включене в алгоритми машини створює деяку«свободу дій» і являється одним з суттєвих елементів творчого процесу. Інакшекажучи, Захрипов стверджує, що варіювання елементів складає основний принципхудожньої творчості і, можливо, будь-якій творчості взагалі.
Критика штучного інтелекту.
У попередніх частинах роботи було розглянуто минуле і сучаснештучного інтелекту. Отже, що підвести логічний підсумок слід розглянутипрогнози на його майбутнє. Велика кількість вчених, протягом останніх шестидесяти років працювала над проблемою створення штучного інтелекту і, в ходісвоєї роботи, вони доходили деяких висновків щодо перспектив цієї галузі. Вченірізних галузей по різному ставилися до ідеї створення штучного інтелекту, томуя розглянула це питання з точки зору кібернетики і психології, двох основнихнаук у цій галузі.
Алан Т’юринг був одним з першопроходців в області штучногоінтелекту, і він представив у своїй роботі одну з найоригінальніших ідейминулого століття: гру в імітації, або тест Т’юринга. Він запропонуваввизначати здатність машини до мислення шляхом перевірки, чи зможе вона впевнитисвого співрозмовника у тому, що вона – людина. Цей підхід можна вважати вірним,якщо враховувати, що ми не в змозі спостерігати за процесами мислення і судимопро його наявність тільки з результатів, а отже і про наявність машинногомислення слід також судити виходячи з результатів. Також Т’юринг окреслює, щосаме слід вважати за машин у такому випадку. Шляхом відсіву, він виділяє ЕОМз-поміж усіх можливих варіантів (наприклад штучно створена людина) і пояснюєдеякі принципи їх роботи.
Т’юринга цікавило не те, наскільки добре зможуть проходитисучасні на той час ЕОМ гру в імітацію, а те, чи можуть бути в майбутньому такі,що справді це зможуть. Вчений цікавиться потенціалом штучного інтелекту.Т’юринг говорить, що він вірить у те, що через 50 років будуть існувати машини,які б змогли обманювати співрозмовника протягом як мінімум 5 хвилин. І, напротивагу своєму ставленню до проблеми, приводить точки зору протилежніпочергово розгляд спростовуючи їх.
Усвоїй роботі «Что же могут машины?» (1975) Бірюков становить питання проможливості штучного інтелекту і людини як центральне питання кібернетики. Наоснові аналізу робіт, він виносить два підходи до цієї проблеми. Перший, якийвін називає «Кібернітичним оптимізмом», зазвичай підтримують представникитехнічних напрямків наук, а протилежний йому – представники гуманітарнихобластей науки. Але, у той самий час, відкидання прихильниками другої теоріїможливості машин імітувати деякі окремі сфери людської психіки відкриває передкібернетиками нові поля діяльності. Але така занадто позитивна точка зорубагатьох кібернетиків призвела до того, що у науковій літературі США і Заходумало кваліфікованих робіт, що тверезо б осмислювали можливості і обмеженнянового наукового напрямку.
Якодного з найвагоміших критиків штучного інтелекту Бірюков згадує Дрейфуса ійого працю «Чого не можуть машини». Він підкреслює, що Дрейфус був компетентниму питаннях кібернетики і міг розмовляти з представниками течії кібернетичногооптимізму на знайомій їм мові. Його книга розкривала точку зору лініїскептичного ставлення до створення мислячих машин, і Бірюков стверджує, щоматеріал цієї книги може сприяти поглибленню розуміння проблеми.
Такожавтор торкається проблеми психології, він каже, що взаємодія штучного інтелектуі психології сприяє теоретичному і експериментальному дослідженням пізнавальноїдіяльності, сприяє розробці нових психологічно-кібернетичних теоретичних«моделей» інтелекту.
Дж.Серл вчений у своїй праці «Свідомість, мозок і програми» розрізняє два напрямкирозвитку штучного інтелекту: сильний і слабкий. Поняття сильного штучногоінтелекту має на увазі, що комп’ютер це не просто інструмент у дослідженнясвідомості, а, певним чином, свідомість, адже вони володіють когнітивнимистанами. З точки зору слабкого штучного інтелекту, основною цінністю комп’ютерау вивченні свідомості є те, що він дає нам потужний інструмент. У своїй роботіСерл критикує точку зору сильного штучного інтелекту, ставлячи у прикладвіртуальний експеримент. Експеримент полягає у моделюванні людиною діяльностімашини, тобто людині надається текст на невідомій їй мові, деякі правила, щодозволяють оперувати з елементами тексту та «питання» — такий самийнезрозумілий текст з деякими позначками на зрозумілій мові. Таким чином,набивши руку, людина може ввести в оману того, хто буде оцінювати знання неюневідомої мови за якістю відповідей на питання до тексту. В такому випадкулюдина поводить себе як обчислювальна машина, але такі маніпуляції значновідрізняються від справжнього мислення над текстом, що вона розуміє. Такимчином, Серл стверджує, що претензії прихильників сильного штучного інтелекту нарозуміння машиною смислу не справджуються, а тому не справджуються і претензіїна пояснення психічних процесів роботою машин.
Усвоїй статті «Скільки лишилось до суперінтелекту?» (1997) Бостром приводитьосновні аргументи на користь того, що штучний інтелект з’явиться вже у першійтреті 21 століття. Він вбачає проблему створення штучного інтелекту в основномуу недостатній потужності комп’ютерів, але на основі закону Мура вираховує, щонеобхідних значення (10^17) вона досягне вже до 2025 року. Можливість побудови штучногоінтелекту, що за рівнем не поступається людині не викликає у нього сумнівів іобмеження Бостром вбачає тільки у фізичній здатності матерії пропускатиінформацію, але і це – якщо не стануть відомими нові закони фізики. Стагнаціїштучного інтелекту у 70-80 роках, вчений не надає великого значення, адже наукане стоїть на місці і після цього вже було зроблено ряд великих відкриттів. Бостромє одним з яскравих представників науковців кібернетиків, що оптимістичноставляться до розробки штучного інтелекту не зважаючи на ряд проблем,пов”язаних з психологією.
Якщож розглядати проблему можливості створення штучного інтелекту з точки зорупсихології, то слід розпочати, певно, з робіт Тихомирова. Він виділяє трипозиції щодо входження психології в сферу наук, що вивчають штучний інтелект:
1)Відтворення людського розуму попри відсутність знань про нього, така позиціяхарактерна для багатьох фахівців з кібернетики, що створюють логічні програмидля ЕОМ, вважаючи що відтворюють когнітивні процеси людини.
2) Другимрішенням є констатація нестачі знань про психічні процеси людини і намаганнявирішити цю проблему шляхом вивчення інтелектуальних процесів машини. Іншимисловами, основою для нових відомостей вважається аналіз метод вирішення машиноюзадач, аналогічних людським.
3) Третя позиція розглядає дослідження психологічні ікібернетичні як незалежні одні від одного. Таким чином, можливим стає тількизастосування знань з галузі психології для вирішення питань у сфері штучногоінтелекту.
Відповідно до тісної взаємодії психології і сфери штучногоінтелекту, зміни відбуваються і в рамках психологічної науки, а саме –виділяється нова сфера досліджень, що проводить порівняльний аналіз способіввирішування задач комп’ютером і людиною. Крім того, вже перші роботи з штучногоінтелекту показали необхідність подальших досліджень в області мислення вцілому, а не тільки рішення задач. Виникла потреба також більш точноговизначення і охарактеризування деяких психологічних явищ, таких як, наприклад,творчість, мислення, тощо.
Описуючи розуміння терміну мислення, Тихомиров зазначає, що у20 столітті з’явилося ще одне, розуміння мислення як процесу обробкиінформації. Поява ЕОМ значно вплинула на розвиток психологічної науки, поняттякібернетики переносилися на класичні психологічні моделі. «Планування»ототожнювалося з програмами ЕОМ а питання про специфіку планування дій людиноюбуло забуте. Під загальним впливом кібернетичних наук психологію почалитрактувати як науку про переробку інформації, а критерієм науковості стало трактуванняпсихічних процесів як програм для ЕОМ.
Визначенням когнітивних процесів стало таким: «Це активність,пов’язана набуттям, організацією і використанням знань». Тихомиров зауважує, щотаке формулювання випускає найважливіша для психології мислення ланка –породження нових знань. Також Тихомиров виділяє обмеження, до якихпризводить розуміння мислення як інформаційного процесу:
1) нерозрізняються інформаційно-кібернетичні і власне психологічні моделі
2) невивчається суб’єктивна обумовленість мислення
3) не аналізуються смислоутворення, цілеутворення, емоційно-.мотивуючарегуляція мислення, співвідношення усвідомленого і не усвідомленого в розумовоїдіяльності, види узагальнень, не аналізується розвиток мислення.
Саме ці питання і є суттю психологічного дослідження. Між тимвідомо, що когнітивні процеси людини значно відрізняються від машинних, щозначно обмежує можливості співставлення. Головним завданням психологіїТихомиров постулює саме виявлення і дослідження цих відмінностей, що роблятьлюдину людиною. Отже, характерною рисою для сучасної науки Тихомиров бачив нерозрізняння інформаційних і психічних процесів, що виникла в період НТР іпов’язана з виникненням ЕОМ. Пояснення психології аналогічно до принципів діїкомп’ютерів він називає комп’ютерним детермінізмом.
На семінарі «Психологія і Штучний Інтелект»,що відбувся 1975 року було сформована така основна теза: «Дослідження тихсторін інтелектуальної діяльності людини, які не відтворюються сьогодні вроботі систем «штучного інтелекту», намічають перспективи подальшого прогресу вобласті «штучного інтелекту» і разом з тим є «точкою зростання» самої психологічної науки».
Серед усіх представлених робіт були також статті, щорозкривали характеристики взаємодії психології і штучного інтелекту. ОкрімТихомирова свої статті представляли такі вчені як, наприклад, А.В. Брушлінскій, котрий вважає, що «штучний інтелект»відображає, в найкращому разі, тільки формально-логічний, але не психологічнийаспект мислення, що сучасні обчислювальні машини стають необхідним знаряддям(але лише знаряддям) творчої і нетворчої праці. Л.П. Гур'єва показує, що привикористанні можливостей «штучного інтелекту» з'являються нові мотиви, щовизначаються специфікою роботи людини в умовах взаємодії з машиною. А.М.Матюшкин відносить до числа детермінант психіки, що нині не можуть бутизмодельовані, потреби, мотиви, емоції. А.Г. Асмолов показує, що за дослідженнямспіввідношень між евристичним пошуком машини і інтелектуальною діяльністюлюдини виступає одна з основних методологічних проблем психології — проблемапошуку шляху подальшого розвитку психологічної науки. Проблеми побудовисистем «штучного інтелекту» пов'язують з питаннями формалізації тих чи іншихсторін людської діяльності. Аналізуючи питанняпро формалізацію процесу цілеутворення, Ю.Д. Бабаєва описує існуючі на цьомушляху труднощі і робить висновок про те, що «на подальший прогрес у напрямкуформалізації процесу цілеутворення можливий лише на основі глибокогопсихологічного аналізу цього процесу». Е.Ю. Артем'єва показуєобмеженість підходу до побудови «штучного інтелекту», перебільшеність ролілогічного синтезу. Д.Н. Завалішина пише, щоодним з позитивних моментів розширення робіт по «штучному інтелекту» дляпсихології пізнавальних процесів є звернення психологів до вивчення такихспецифічних характеристик психічної діяльності, як мотиви, цілепокладання,емоційна регуляція.
Підсумовуючи вище сказане можна побачити деяку подвійністьпоглядів на перспективи створення «сильного» штучного інтелекту. До позитивнонастроєної групи налехить більшість вчених, зайнятих у сферах кібернетики,інших точних наук. До критиків такої позиції відносяться психологи та меншістькібернетиків. Позитивно настроєні вчені аргументують свою впевненість уможливості такого розвитку подій, спираючись на швидкий розвиток технічних наукі втіленні того, що раніше можливим не вважалося. Їх критики відмічають, щотакий підхід до машинного моделювання, чкий панує сьогодні несе у собі занадтовелике спрощення людських психічних процесів, зведення їх до формально-логічнихоперацій.
Висновок
Підбиваючи підсумки по проведеному аналізу, можна говоритипро подвійність сучасного стану розвитку штучного інтелекту. З одного боку,нібито, кібернетика сміливо крокує до створення справжнього штучного інтелекту,що імітував би людську гностичну діяльність. Але якщо прислухатися до точкизору фахівців з психології, можна помітити, що новітні розробки у галузікібернетики на даний момент примножуються кількісно. Адже, захопившисьвирішенням задач, кібернетики не звертають уваги на значні відмінності людськоїпсихіки від логічних алгоритмів машинних кодів. На сучасному етапі розвиткунауки, коли не існує незборимих перешкод в області технічного устаткуваннямашин, коли подолано більшість методологічних перешкод, слід намагатися глянутина ситуацію, що склалася зі сторони. Тоді і тільки тоді можливими станутьякісні зрушення в області моделювання людських гностичних актів, вихідкогнітивної науки на новий рівень.
Розглядаючи розвиток когнітивної психології і, особливо,галузі штучного інтелекту, можна прослідкувати ряд якісних змін у підходах дорішення проблеми створення моделюючих психічні процеси машин. Судячи з ситуаціїна сьогодняшній день, слід шукати способів вийти на новий якісний рівень,інакше є загроза зайти у глухий кут. Коли будь-яка галузь науки припиняє свійрозвиток і починає ходити по колу, її місце моментально займає інша, більшперспективна і модернізована.
Суспільство на даному етапі видається не готовим сприйнятистворення штучного розуму. Можливо необхідні деякі зрушення у суспільнійсвідомості, до яких може привести кардинальне зрушення у науці, яким і сталакогнітивна наука на початку 50 років ХХ століття. Можливо, тоді перспективастати не єдиними розумними істотами у світі не стане викликати негативноїреакції.
Отже, на мою думку, всі аспекти проблеми штучного інтелектуприводять нас до висновку про необхідність масштабних якісних змін у підходах,методах та розумінні наукою пізнання як цілісного і складного процесу. У цьомупроцесі велика роль надається психології, адже саме вона повинна чіткоокреслити поняття, встановити взаємозв”язки між ними і визначити їх суттєвіриси і характеристики.
Список літератури
· Russel S.J., Norvig P. «Artificial Intelligence: A ModernApproach»
· Аллахвердов В.М. СОЗНАНИЕ КАК ПАРАДОКС
· Аллахвердов. Научная группа. Петербургская школа психологи\\ www.cogpsy.ru/
· Бирюков Б.В. «Что же могут вычислительные машины»
· Брушлинский А.В. Возможен ли «искусственныйинтеллект»
· Величковский Б. «Когнитивная наука: Основы психологии познания»\\http://www.gumer.info/bibliotek_Buks/Psihol/velich/index.php
· Захрипов «Машинный поиск вариантов при моделировании творческогопроцесса»
· Ник Бостром «Сколько осталось до суперинтеллекта?»
· Сёрл Дж. «Сознание, мозг и программы»
· Соло Роберт «Когнитивная психология»
· Тихомиров О.К. «Психология мышления»
· Тихомиров О.К. «Искусственный интеллект и теоретические вопросы психологии»
· Тьюринг А. «Могут ли машины мыслить?»
· Фаликман М.В. Введение в когнитивную науку\\http://virtualcoglab.cs.msu.su/projects/mf_cogsci.html