Anglicko-slovenský terminologický slovník

Prosím o zaradenie nasledovného termínu
do databázy

 
english:
definition:
slovensky:
definícia:
meno zadavajuceho:
zadaj text z obrazka:
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z all
English Slovensky
learning program učiaci sa program (program ktorý sa učí)
Normal programs P produce the same output y each time they receive a particular input x. Learning programs are capable of improving their performance so that they may produce different (better) results on second or later times that they receive the same input x. They achieve this by being able to alter their internal state, q. In effect, they are computing a function of two arguments, P(x | q) = y. When the program is in learning mode, the program computes a new state q' as well as the output y, as it executes. In the case of supervised learning, in order to construct q', one needs a set of inputs xi and corresponding target outputs zi (i.e. you want P(xi | q) = zi when learning is complete). The new state function L is computed as: L(P, q, ((x1,z1), ..., (xn, zn))) = q' Normálne programy P vyprodukujú rovnaký výstup y vždy, keď dostanú vstup x. Programy, ktoré sa učia sú schopné vylepšovať svoje ohodnotenie, tak môžu dať iný (lepší) výsledok na druhý alebo ďalší pokus, keď dostanú vstup x. Dosahujú to tým, že sú schopné meniť svoj vnútorný stav, q. V skutočnosti, počítajú funkciu s dvoma argumentmi, P(x |q ) = y. Keď je program v štádiu učenia, program počíta nový stav q' tak ako výstup y. V prípade učenia s učiteľom, na vytvorenie q' je potrebná množina vstupov xi a tomu zodpovedajúce výstupy zi (t.j. chceme P(xi | q) = zi keď je učenie skončené). Nová stavová funkcia L je počítaná ako: L(P, q, ((x1,z1), ..., (xn, zn))) = q'
learning rate ohodnotenie učenia
training parameter that controls the size of weight and bias changes during learning. parameter pri učení (v neurónovej sieti), ktorý udáva veľkosť zmeny a skreslenia počas učenia.
leave-one-out method vzájomná validácia s vynechaním jedného prvku
likelihood ---
linear discriminant analysis lineárna diskriminačná analýza
local minimum lokálne minimum
Understanding this term depends to some extent on the error surface metaphor. When an artificial neural network learning algorithm causes the total error of the net to descend into a valley of the error surface, that valley may or may not lead to the lowest point on the entire error surface. If it does not, the minimum into which the total error will eventually fall is termed a local minimum. The learning algorithm is sometimes referred to in this case as "trapped in a local minimum." In such cases, it usually helps to restart the algorithm with a new, randomly chosen initial set of weights - i.e. at a new random point in weight space. As this means a new starting point on the error surface, it is likely to lead into a different valley, and hopefully this one will lead to the true (absolute) minimum error, or at least a better minimum error. Pochopenie tohto pojmu závisí do istej miery na metafore o chybe plochy. Keď učiaci algoritmus umelej neurónovej siete spôsobí, že celková chyba siete sa zníži do údolia chyby plochy, tak údolie môže alebo nemusí viesť do najnižšieho bodu celkovej chyby plochy. Ak tomu tak nie je, je minimum, do ktorého celková chyba nakoniec spadne sa volá lokálne minimum. Učiaci algoritmus sa v tomto prípade niekedy označuje ako „uväznený v lokálnom minime“ V takom prípade, zvyčajne pomáha reštartovať algoritmus s novou, náhodne zvolenou množinou váh – t.j. s novým náhodným bodom v priestore váh. Keďže to znamená nový štartovací bod na chybe plochy, pravdepodobne to vedie k odlišnej doline, a dúfame, že táto vedie k skutočnej minimálnej chybe alebo aspoň k lepšej minimálnej chybe.
low-pass filter dolnopriepustný filter