*113260*

І.І. Чигур

Івано-Франківський національний технічний університет нафти і газу,

м. Івано-Франківськ,  вул. Карпатська 15

 

ФОРМАЛІЗАЦІЯ ВХІДНИХ ДАНИХ НЕЙРОМЕРЕЖЕВОЇ СИСТЕМИ КОНТРОЛЮ БУРІННЯ МЕТОДАМИ ФАЗЗІ ЛОГІКИ

 

Складність та інформаційна невизначеність процесу буріння свердловин на нафту і газ вимагають створення надійних систем прогнозування на ідентифікації технологічних ситуацій, що виникають в процесі будівництва свердловин (передаварійні ситуації та ускладнення викликані геолого-технологічними причинами, зношення елементів конструкції породоруйнівного інструменту та інші).

Нейронні мережі, призначені для розпізнавання образів, можуть стати ефективним інструментом для створення систем контролю і ідентифікації технологічних ситуацій в процесі буріння свердловин.

Особливістю розпізнавання образів у буріння є те, що кількість інформації, яка може бути використана для навчання нейромережі є обмеженою, це обумовлено особливостями технологічного процесу буріння свердловин (складність і великий проміжок часу здійснення технологічного циклу, нестаціонарність і невідтворюваність процесу, великий рівень шумів як на вході так і на виході каналу передачі  інформації, що підлягає вимірюванню і контролю та інші).

Ці особливості не дозволяють ефективно використовувати класичні нейронні мережі (які використовують принципи навчання з “вчителем” і без “вчителя”) для розпізнавання (ідентифікації) образів у процесі буріння свердловин.

Для вирішення задачі розпізнавання ситуації і прийняття первинних рішень пропонується використати нечітку нейромережу. Нечітка нейронна мережа була обрана у відповідності до формалізованого опису моделі вирішуваної задачі.

Нейро-нечітка мережа Такагі-Сугено-Канга (Takagi-Sugeno-Kang Neuro-fuzzy network, TSK) виконує нечітке виведення із використанням N змінних xj та m правил:

Пk: Якщо x1 A(k)1 та x2 A(k)2 та … та x A(k)N, тоді      (1)

де A(k)j – нечіткий терм, до якого має належати j-та вхідна змінна, щоб активізувати k-те правило, wkj – ваговий коефіцієнт, k = 1, 2, …, m.

Мережа Такагі-Сугено-Канга (рис.1) складається з п’яти шарів.

 

 

Рисунок 1 – Мережа Такагі-Сугено-Канга

 

Перший шар виконує окрему фазіфікацію кожної вхідної змінної xj, j=1, 2, ..., N, визначаючи для кожного k-го правила значення функції належності

                                                (2)

параметри якої  підлягають адаптації в процесі навчання.

 

Другий шар виконує агрегування функцій належності вхідних змінних до термів антецедентів нечітких правил, визначаючи належність вхідного вектора до k-го правила (рівень активації правила):

, k = 1, 2, …, m.                     (3)

Третій шар генерує значення функцій консеквентів нечітких правил з урахуванням рівнів активації правил:

                                         (4)

Це параметричний шар, у якому адаптації підлягають лінійні ваги wkj, k = 1,2, ..., m, j = 1, 2, ..., N.

Четвертий шар агрегує m правил виведення (перший нейрон) і генерує нормалізуючий сигнал (другий нейрон):

                              (5)

П’ятий (вихідний) шар містить один нейрон і здійснює нормалізацію, формуючи вихідний сигнал у:

Мережа Такагі-Сугено-Канга містить тільки два параметричних шари (перший і третій), параметри яких уточнюються в процесі навчання. Параметри першого шару будемо називати нелінійними параметрами, а параметри третього шару – лінійними вагами.

Якщо прийняти, що в конкретний момент часу параметри умов зафіксовані, то функція y1, x2, …, xN) є лінійною щодо змінних х1, x2, …, xN.

При наявності N вхідних змінних кожне правило формує N+1 змінних wkj лінійної залежності уk1, x2, …, xN). При m правилах виведення це дає m(N+1) лінійних параметрів мережі. У свою чергу, кожна функція належності використовує три параметри , що підлягають адаптації. Якщо прийняти, що кожна змінна хj, характеризується власною функцією належності, то при m правилах виведення ми одержимо 3m нелінійних параметрів. У сумі це дає m(4N+1) лінійних і нелінійних параметрів, значення яких повинні підбиратися в процесі навчання мережі.

На практиці для зменшення кількості параметрів, що адаптуються, оперують меншою кількістю незалежних функцій належності для окремих змінних, керуючись правилами, у яких комбінуються функції належності різних змінних. Якщо прийняти, що кожна змінна хj має kj різних функцій належності, то максимальна кількість правил, яку можна створити при їхньому комбінуванні, складе: m = kj. У такий спосіб сумарна кількість нелінійних параметрів мережі при m правилах висновку зменшується з 3m у загальному випадку до 3Nm1/N. Кількість лінійних параметрів при подібній модифікації залишається без змін, тобто m(N+1).

Завдання мережі полягає в такому відображенні пар даних <х, y>, щоб для вхідного вектора xs розрахункове значення вихідної ознаки ys*=у(хs) не сильно відрізнялося б від співставленого xs фактичного значення цільової ознаки ys.

Навчання мережі Такагі-Сугено-Канга засновано на мінімізації цільової функції

                                        (6)

де S – кількість навчаючих пар <xs, ys>, та є контрольованим.

Гібридний алгоритм навчання застосовується для мережі Такагі-Сугено-Канга й інших нейро-нечітких мереж, подібних їй. У гібридному алгоритмі підлягаючі адаптації параметри розподіляються на дві групи: одна група складається з лінійних параметрів wkj третього шару, а інша група – з параметрів нелінійних функцій належності першого шару. Уточнення параметрів проводиться в два етапи.

На першому етапі при фіксації визначених значень параметрів функцій належності (у першому циклі – це значення, отримані в результаті ініціалізації) шляхом розв’язку системи лінійних рівнянь розраховуються лінійні параметри wkj. При відомих значеннях функції належності залежність у(х1, x2, …, xN) можна подати в лінійній формі:

         (7)

При S екземплярах навчаючої вибірки <хs, ys>, s= 1, 2, ..., S, одержимо систему з лінійних рівнянь у матричній формі: Aw=y, де w=(w1, w2, …,wm)T, wk=(wk0, wk1, …, wkN)T, y=(y1, y2, …, yS)T, A=(a1, a2, …, aS)T, as=(as1, as2,…, asm)T, ask=()T. Розмірність матриці А дорівнює S(N+l)m, при цьому звичайно кількість рядків S значно більше кількості стовпців (N+1)m. Розвязок цієї системи: w = A-1y.

На другому етапі після фіксації значень лінійних параметрів wkj розраховуються вихідні сигнали мережі y={ys*} (s=1, 2, …,S): y=Aw, а слідом за ними – вектор помилки e={es}, еs = уs* – ys. Сигнали помилок направляються через підключену мережу за напрямком до входу мережі (зворотне поширення) аж до першого шару, де можуть бути розраховані компоненти градієнта цільової функції щодо конкретних параметрів .

Після формування вектора градієнта параметри уточнюються з використанням одного з градієнтних методів навчання. Якщо застосовується найпростіший метод найшвидшого спуска, то відповідні формули адаптації приймають форму:

        (8)

де t – номер ітерації, αс, ασ, αb – коригувальні прирости (кроки навчання).

Після уточнення нелінійних параметрів знову запускається процес адаптації лінійних параметрів (перший етап) і нелінійних параметрів мережі (другий етап). Цей цикл повторюється аж до стабілізації всіх параметрів процесу навчання.

Остаточний вид формул настроювання параметрів залежить як від використовуваного визначення функції помилки на виході мережі, так і від виду функції належності. Так при використанні функцій Гауса як функцій належності та середньоквадратичної помилки, часткові похідні цільової функції приймають вигляд:

 

          (9)

 

Незважаючи на складну структуру наведених формул, що виражають компоненти вектора градієнта, вони дозволяють аналітично визначити величини, необхідні для уточнення параметрів нечіткої мережі.

При практичній реалізації гібридного методу навчання нечітких мереж домінуючим фактором їхньої адаптації вважається перший етап, на якому ваги wkj підбираються з використанням псевдоінверсії за один крок. Для зрівноважування його впливу другий етап (підбір нелінійних параметрів градієнтним методом) багаторазово повторюється в кожному циклі.

Гібридний алгоритм є одним з найбільш ефективних способів навчання нейро-нечітких мереж. Його головна особливість полягає в розподілі процесу навчання на два відособлених у часі етапи. На кожному етапі уточнюється тільки частина параметрів мережі. Якщо взяти до уваги, що обчислювальна складність кожного алгоритму оптимізації пропорційна (нелінійно) кількості параметрів, то зменшення розмірності задачі оптимізації істотно скорочує кількість математичних операцій і збільшує швидкість виконання алгоритму. Завдяки цьому гібридний алгоритм є значно більш ефективним, ніж звичайний градієнтний алгоритм фронтального типу, відповідно до якого уточнення всіх параметрів мережі робиться паралельно й одночасно.

Застосування фаззі-нейромережевих технологій для створення систем автоматизованого контролю і ідентифікації технологічних ситуації, що виникають в процесі буріння і мають негативний вплив на перебіг технологічного процесу дозволить значно підвищити вірогідність контролю, а отже забезпечити ефективність і безаварійність виробничого циклу.

Література

 

1.         Чигур І.І. Аналіз задачі алгоритмізації контролю технічного стану породоруйнівного інструменту / Розвідка і розробка нафтових і газових родовищ. Серія: Технічна кібернетика та електрифікація об’єктів паливно-енергетичного комплексу. - 2001. - Вип. 37 (7). - С. 114-119.

2.         Семенцов Г.Н., Горбійчук М.І., Чигур І.І. Математичний аналіз критеріїв відпрацювання доліт /Нафтова і газова промисловість. – 2001. - № 6. – С. 25 – 28.

3.         Kästner W., Fenske A., Hampel R. Improvement of the robustness of Model-based

4.         Measuring Methods using Fuzzy Logic //World Scientific, Proceedings of th 3rd  International FLINS Workshop, Antwerp., Belgium – 1998. – pp. 129-142.

5.         Artificial Neural Networks: Concepts and Theory, IEEE Computer Society Press, 1992.

6.         Ф.Уоссермен, Нейрокомпьютерная техника, М.,Мир, 1992.

7.         Семенцов Г.Н., Чигур І.І. Аналіз алгоритмів контролю відпрацювання породоруйнівного інструменту в процесі буріння свердловин // Вісник технологічного університету Поділля. - №3. Том 1. - 2002

8.         Нечеткие множества в моделях управления и искусственного интеллекта / Под ред. Д.А. Поспелова. – М.: Наука, 1986. – 312 с.

9.         Нечеткие множества в моделях управления и искусственного интеллекта/А.Н. Аверкин, И.З. Батыршин, А.Ф. Блишун, В.Б. Силов, В.Б. Тарасов. Под ред. Д.А. Поспелова.М.:Наука, 1986.312 с.