和英特許翻訳メモ

便利そうな表現、疑問、謎、その他メモ書き。思いつきで書いてます。
拾った用例は必ずしも典型例、模範例ではありません。

学習済みモデル

2021-02-19 13:37:29 | 英語特許散策

US2020364570(JP)
[0005] In an end-to-end segmentation framework in deep learning, a region of a desired object is extracted by learning a pair of an input image and a label image having the same size.
【0004】
  深層学習におけるエンドツーエンド(End-to-End)のセグメンテーションフレームワークでは、入力画像と同サイズのラベル画像のペアを学習させて、所望のオブジェクトの領域を抽出する。

[0006] One significant factor in successful deep learning is learning a large amount of learning data. However, data of medical images or the like is rare, and it is difficult to prepare a large amount of data. Therefore, a technique called “transfer learning” is used (JP2017-224156A).
【0005】
  深層学習を成功させる大きな要因の1つは、大量の学習データを学習させることである。しかし、医療画像などは、データが希少であり、大量に用意することが難しい。そこで「転移学習」と呼ばれる手法が用いられる(特許文献1)。

Transfer learning is learning another problem (for example, class classification for medical images) using a part of a network that has once learned in a field where a large amount of data such as photographic images can be used.
転移学習は、写真画像など大量のデータが利用できる分野で一旦、学習させたネットワークについて、その一部を流用して別の問題(例えば、医療画像についてのクラス分類)を学習させるものである。

Optimization of the network to solve a new problem using a parameter of the learned network as an initial value is called fine tuning.
学習済みネットワークのパラメータを初期値として、新しい問題を解くようにネットワークを最適化することはファインチューニング(Fine Tuning)と呼ばれる。

Optimization may also be performed by fixing and not changing a parameter of a network on a low layer side at all in the learned network and switching only a layer (particularly, the last layer) in a rear stage.
また、学習済みネットワークにおける低層側のネットワークのパラメータを全く変えずに固定して、後段の層(特に最終層)のみを入れ替えて、最適化することもある。

[0025] A learned model according to Aspect 6 is a learned model having acquired a processing function of performing tasks of first class classification and second class classification through learning of the second neural network by performing the machine learning method of any one aspect of Aspect 1 to Aspect 5.
【0026】
  態様6に係る学習済みモデルは、態様1から態様5のいずれか一態様の機械学習方法を実施して第2のニューラルネットワークを学習させることにより、第1のクラス分類と第2のクラス分類のタスクを行う処理機能を獲得させた学習済みモデルである。

US2020342267(JP)
[0085] In order to improve recognition accuracy for the rare case in the recognizer, increasing the ratio of the data of the rare case in the learning data is considered. However, in actuality, it is difficult to collect a large amount of data of the rare case.
【0069】
  認識器においてレアケースについての認識精度を向上させるためには、学習データ中のレアケースのデータの割合を増やすことが考えられるが、実際にレアケースのデータを大量に収集するのは困難である。

The “learning data” is data for learning in which an input signal used in learning is associated with a supervisory signal indicating a correct answer label corresponding to the input signal, and is also called “training data”.
「学習データ」は、学習に用いる入力信号と、その入力信号に対応した正解ラベルを示す教師信号とを関連付けた学習用のデータであり、「訓練データ」とも呼ばれる。

[0100] The image recognition unit 14 includes a recognizer that learns by machine learning. The recognizer is a learned model that acquires recognition performance by machine learning.
【0083】
  画像認識部14は、機械学習によって学習させた認識器を含んでいる。認識器は、機械学習によって認識性能を獲得した学習済みモデルである。

The learned model that performs the recognition processing is referred to as a “recognition model”. For example, the recognizer can be configured using a convolutional neural network (CNN). Learning performed for acquiring the initial recognition performance as the recognition model is referred to as “first learning”.
認識処理を行う学習済みモデルを「認識モデル」という。認識器は、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いて構成することができる。認識モデルとしての初期の認識性能を獲得するために行われた学習を「第1の学習」という。

A learning data set used in the first learning of the recognizer is referred to as a “first learning data set”. The first learning data set may be a learning data set that is prepared in advance.
認識器の第1の学習に用いた学習データセットを「第1の学習データセット」という。第1の学習データセットは、予め用意された学習データセットであってよい。

The first learning may be performed using the machine learning unit 22 or may be performed using a separate machine learning apparatus, not illustrated. In the first learning, the contribution degree to learning from each learning data used in learning is constant (non-weighted).
第1の学習は、機械学習部22を用いて実施されてもよいし、図示せぬ別の機械学習装置を用いて実施されてもよい。なお、第1の学習においては、学習に用いる各学習データからの学習への寄与度は一定(重み付け無し)である。

The first learning may also be referred to as “non-weighted learning”.
第1の学習は、「重み付け無し学習」と言い換えてもよい。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

に従い幅が

2021-02-19 11:55:45 | 英語特許散策

EP1391305
[0065] As illustrated in Figure 12b, any shape for the thermo-mechanical bending portion which monotonically reduces in width from base end to free end will show improved resistance to the actuation load or backpressure over a rectangular bender of comparable area and length.
【0065】
 図12bに示されるように、基部端から自由端に向かって幅が単調減少する熱的機械湾曲部ならどのような形状であれ、発動負荷または背圧に対する耐性が、同程度の面積および長さを有する長方湾曲体よりも向上する。

This can be seen from Equation 4 by recognizing that the rate of change in the bending of the beam,d<2>y/dx<2>is caused to increase as the width is narrowed with increasing distance,x, from the base end. That is, from Equation 4: d 2 y dx 2 ∝ - (1- x ) w ( x ) .
このことは、式(4)より、ビームの湾曲の変化率、dy/dxが基部端からの距離、x、が増加するに従い幅が狭まる場合に増加することを認識すれば理解できる。つまり、式(4)より、


Image available on "Original document"
000016
As compared to the rectangular case whereinw(x) =w0, a constant, a monotonically decreasingw(x) will result in a larger negative value for the rate of change in the slope of the beam, which is being deflected downward under the applied loadP.
である。w(x)=w(定数)となる長方形の場合と比較すれば、単調減少するw(x)により、負荷Pを受けている状況下で下方に偏向しているビームの傾きの変化率の値は、より大きな負の値になる。

Therefore, the slope of the beam at each point, the bending, is reduced as x increases, and the accumulated amount of beam deflection at the free end,x= 1, will be less.
従って、各点におけるビームの傾き、つまり湾曲は、xが増加するに従って減少し、自由端x=1において累積したビームの偏向量は少なくなる。

A beneficial improvement in the thermo-mechanical bending portion resistance to a load will be present if the base end width is substantially greater than the free end width.
熱的機械湾曲部の負荷に対する耐性に関する有益な向上点は、基部端の幅が実質的に自由端の幅よりも大きければ、現れる。

The term substantially greater is used herein to mean at least 20% greater.
ここで用いた用語「実質的に大きい」とは少なくとも20%大きい意味で用いられている。

EP1009275
[0084] While the pad depicted in Figure 2 is shown to have a continuous decrease in width moving from(*movingの主語は?cf. in an area from, in an area moving/extending from)the top to the bottom of the pad, it may be preferred to provide layer widths that change discontinuously.
図2に明瞭に描かれたパッドは、パッドの上面から底面に進む幅の一様な減少を有するように示されているけれども、非連続的に変化する層の幅を具備するの
が好ましい。

For example, as is depicted in Figure 5b, the absorbent layer is comprised of three distinct layers, which become smaller in width moving in the direction of the scrubbing layer.
例えば、図5bに示されるように、吸収層は3個の別々の層から構成されており、これらは洗浄層に向かって変位するに従い幅が小さくなっている

(That is, the layers of the absorbent layer become narrower, discontinuously, when moving down in the direction of the scrubbing layer.)
(即ち、吸収層の層は洗浄層に向かって下向きに変位すると、幅が不連続的に狭くなる。)

The decreasing widths result in three surfaces 411, 413 and 415.
幅が狭まって、3個の面411,413,415になっている。

Furthermore, the discontinuity of these decreasing widths provide multiple edges in the form of the front and rear aspects of layers 405, 407 and 409.
更には、これらの減少する幅の不連続性か、層405,407,409の前面及び後面の形の多数の縁を生じている。

This multiplicity of edges is believed to provide still better particulate pick up. Of course, the effect of multiple discrete edges may be accomplished using more or fewer discrete layers in the absorbent layer.
このように縁を多数にすることは、尚良好な粒子取り上げ性を齎すと考えられている。勿論、多数の別々の縁の効果は、吸収層の幾つかの個別層を使用することによって達成される。

The effect may alternatively be accomplished by, e.g., using a moldable material as the absorbent layer (i.e., only one absorbent layer would be a monolayer), by using an implement whose topography is transferred to the pad, etc.
或いは、その効果は、例えば、吸収層として成形材料を使用することにより(即ち、単一の吸収層は単層である。)、特徴がパッドに転化されれている器具を使用することによって達成される。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

当ブログの例文について

本ブログの「特許英語散策」等題した部分では、英語の例文を管理人の独断と偏見で収集し、適宜訳文・訳語を記載しています。 訳文等は原則として対応日本語公報をそのまま写したものです。私個人のコメント部分は(大抵)”*”を付しています。 訳語は多数の翻訳者の長年の努力の結晶ですが、誤訳、転記ミスもあると思いますのでご注意ください。