검색연산자 | 기능 | 검색시 예 |
---|---|---|
() | 우선순위가 가장 높은 연산자 | 예1) (나노 (기계 | machine)) |
공백 | 두 개의 검색어(식)을 모두 포함하고 있는 문서 검색 | 예1) (나노 기계) 예2) 나노 장영실 |
| | 두 개의 검색어(식) 중 하나 이상 포함하고 있는 문서 검색 | 예1) (줄기세포 | 면역) 예2) 줄기세포 | 장영실 |
! | NOT 이후에 있는 검색어가 포함된 문서는 제외 | 예1) (황금 !백금) 예2) !image |
* | 검색어의 *란에 0개 이상의 임의의 문자가 포함된 문서 검색 | 예) semi* |
"" | 따옴표 내의 구문과 완전히 일치하는 문서만 검색 | 예) "Transform and Quantization" |
국가/구분 | United States(US) Patent 등록 |
---|---|
국제특허분류(IPC7판) | G06K-009/62 |
미국특허분류(USC) | 382/157 ; 395/23 |
출원번호 | US-0481108 (1995-06-07) |
발명자 / 주소 | |
출원인 / 주소 | |
인용정보 | 피인용 횟수 : 28 인용 특허 : 0 |
An unsupervised back propagation method for training neural networks. For a set of inputs, target outputs are assigned l\s and O\s randomly or arbitrarily for a small number of outputs. The learning process is initiated and the convergence of outputs towards targets is monitored. At intervals, the learning is paused, and the values for those targets for the outputs which are converging at a less than average rate, are changed (e.g., 0→1, or 1→0), and the learning is then resumed with the new targets. The process is continuously iterated and the outputs c...
A method for training a neural network model running on a computer system to generate classifications from a training sample set, said neural network model representing a neural network having an input layer an output layer and at least one hidden layer between the input layer and the output layer wherein each layer includes at least one node and wherein each connection between two nodes of successive layers is characterized by an internal weight, said method comprising the steps of: (a) arbitrarily assigning a numeric label to each training sample signa...