Sisteme cu inteligență artificială

Previzualizare laborator:

Extras din laborator:

REŢELE NEURONALE ARTIFICIALE

GENERALITĂŢI. NEURONUL FORMAL. PERCEPTRONUL MULTISTRAT

La originea dezvoltării cercetărilor în domeniul reţelelor neuronale artificiale (RNA) se găseşte o constatare simplă : există sarcini cărora calculatoarele numerice convenţionale le pot face faţă cu dificultate, în timp ce sistemul nervos al celor mai simple organisme găseşte un răspuns fără a face eforturi evidente. Acestea sunt, de exemplu, cazurile recunoaşterii formelor sau coordonării mişcărilor. Performanţele remarcabile ale creierului uman au lăsat să se întrevadă unele avantaje ce s-ar putea obţine folosind modele de inspiraţie biologică.

Primul model al neuronului formal, acceptat în linii generale şi astăzi, este propus în anul 1943 de către W.S. McCulloch şi W. Pitts. Cercetările întreprinse ulterior în neurobiologie şi psihologie, conduc la primul model de învăţare, propus de către D.O. Hebb în 1949. Un impact deosebit asupra cercetărilor întreprinse în direcţia realizării primelor reţele neuronale artificiale, l-a reprezentat publicarea de către F. Rosenblatt, în anul 1958, a primelor sale lucrări despre perceptron. Timp de un deceniu, oamenii de ştiinţă au fost aproape unanimi în a considera că noua paradigmă poate fi aplicată cu succes pentru numeroase probleme practice, în care sunt implicate inteligenţa şi memoria umană.

În anul 1969, însă, M. Minsky şi S. Papert demonstrează imposibilitatea principială a modelelor de reţele neuronale artificiale propuse până atunci de a modela probleme relativ simple, aşa cum este cazul funcţiei logice SAU EXCLUSIV (XOR). Aceste concluzii au condus la o scădere dramatică a interesului pentru noi cercetări în această direcţie.

Evenimentul care a relansat cercetările comunităţii ştiinţifice mondiale înspre realizarea unor modele conexioniste performante l-a reprezentat apariţia în 1986 a cărţii Parallel Distributed Processing, Explorations in the Microstructure of Cognition de D. Rumelhart şi J. McClelland, care introduce noţiunea de perceptron multistrat. În prezent, prin rezolvarea unor probleme de complexitate ridicată, cum sunt cele de estimare, identificare şi predicţie sau optimizare, reţelele neuronale artificiale capătă o pondere şi un impact tot mai mari în numeroase sectoare ale ştiinţei, tehnologiei sau vieţii sociale.

Neuronul formal

Neuronul formal este un element de procesare a informaţiei care modelează, de o manieră simplificată, neuronul real. Cea mai simplă versiune de neuron formal este un automat binar cu două stări : activ (+1) şi inactiv (-1) (Fig. 1).

Starea neuronului se actualizează periodic după următorul mecanism: se determină potenţialul neuronal vi , calculând suma ponderată a intrărilor xj (care reprezintă ieşirile altor neuroni din reţea sau informaţii provenind de la neuronii de intrare); acest potenţial este comparat cu un prag i , neuronul activându-se (yi = +1) dacă vi  i sau devenind pasiv (yi = -1) dacă vi < i. Această prelucrare a informaţiei în interiorul neuronului corespunde unei funcţii de transfer de tip treaptă (Heviside), denumită frecvent funcţie de activare.

Fig.1 Neuronul formal

Variante îmbunătăţite ale neuronului formal utilizate în present folosesc diverse funcţii de activare. Cele mai utilizate funcţii de activare sunt:

Funcţia de activare liniară, (Fig. 2a) de forma :

unde coeficientul b joacă rolul unui prag. Pentru a = 1 şi b = 0 se obţine funcţia de activare identitate, iar pentru a = 1 şi b ≠ 0 – funcţia de activare identitate plus prag.

Funcţia de activare treaptă (Fig. 2b)

În acest caz, dacă mărimea de intrare a neuronului, x, atinge sau depăşeşte un prag predefinit θ, funcţia produce la ieşirea neuronului valoarea β; în caz contrar, la ieşire se obţine valoarea –δ. Mărimile β şi δ sunt scalari pozitivi, iar funcţia treaptă este definită formal cu relaţia:

De regulă, pentru constantele β şi δ se folosesc valori corespunzătoare unor reprezentări binare, de exemplu β = 1 şi δ = 0, respectiv β = δ =1.

Funcţia de activare rampă (Fig. 2c), combinaţie între funcţiile liniară şi treaptă.

Această funcţie de activare stabileşte limite maximă şi minimă pentru ieşirea neuronului (± γ), asigurând totodată o variaţie liniară între aceste limite. De regulă, punctele de saturare sunt simetrice în raport cu originea, iar expresia funciei rampă este:

Funcţii de adaptare tip sigmoid (varianta continuă a funcţiei rampă).

Acestea sunt fucţii mărginite, monotone şi nedescrescătoare, care asigură o variaţie continuă a mărimii de ieşire a neuronului, într-un domeniu predefinit. Cele mai răspândite funcţii sigmoid sunt:

- sigmoidul logistic sau unipolar (Fig. 2d)

- sigmoidul tangent hiperbolic sau bipolar (Fig. 2e)

- Funcţii de adaptare de tip gaussian (Fig 2f).

Aceste funcţii au formă radială, simetrică în raport cu o valoare medie xm şi sunt caracterizate de un anumit grad de împrăştiere, descries de varianţa σ:

Fig. 2 Funcţii de activare utilizate de RNA

Reţele neuronale artificiale

Neuronul formal calculează suma ponderată a intrărilor, care este trecută apoi prin funcţia de activare, cu o formă în general neliniară. Îndeplinirea unor funcţii care să facă posibilă abordarea unor probleme complexe, de interes practic, este posibilă numai dacă neuronii sunt asociaţi într-un sistem numit reţea neuronală.

Observații:

Laboratoare Sisteme cu inteligenta artificiala

Download gratuit

Documentul este oferit gratuit,
trebuie doar să te autentifici in contul tău.

Structură de fișiere:
  • Sisteme cu Inteligenta Artificiala
    • SI 1 - RNA-PMS.DOC
    • SI 2 - Hopfield.doc
    • SI 3 - Kohonen.doc
    • SI 4 - Logica fuzzy.doc
    • SI 5 - Algoritme genetice (II).doc
    • SI 6 - Algoritmul furnicii.doc
Alte informații:
Tipuri fișiere:
doc
Nota:
8/10 (1 voturi)
Nr fișiere:
6 fisiere
Pagini (total):
49 pagini
Imagini extrase:
49 imagini
Nr cuvinte:
18 383 cuvinte
Nr caractere:
100 811 caractere
Marime:
588.19KB (arhivat)
Publicat de:
NNT 1 P.
Nivel studiu:
Facultate
Tip document:
Laborator
Domeniu:
Electrotehnică
Predat:
la facultate
Materie:
Electrotehnică
Profesorului:
Gheorghe Nemes
Sus!