US2019377970
[0050] A blended image is generated ( 412 ) from the dilated glare maps.
【0045】
膨張されたグレアマップから合成画像が生成される(412)。
In some implementations, the glare regions in the primary image (e.g., the flash image) are replaced with the respective mapped regions of no-glare from the secondary image (e.g., the no-flash image).
いくつかの実施形態では、第1画像(フラッシュ画像など)内のグレア領域は、第2画像(非フラッシュ画像など)からの非グレアのそれぞれのマップされた領域で置き換えられる。
In some implementations, when there is glare regions in the same location on the depicted document in the primary and secondary images,
いくつかの実施形態では、第1画像および第2画像内の図示の文書上の同じ位置にグレア領域がある場合、
the pixels from the primary image (e.g., the flash image) are retained as the base-line for the merged image.
第1画像(フラッシュ画像など)からの画素はマージ画像のベースラインとして保持される。
[0051] The boundary between the copied pixels from the secondary image to the primary image may be problematic for proper analysis of the document (e.g., tamper detection or OCR analysis may be hindered) when, for example, there are hard, high-frequency contrast areas across a text element of the imaged document.
【0046】
第2画像から第1画像へのコピーされた画素間の境界は、例えば、画像化された文書のテキスト要素全体にわたって強い、高周波コントラスト領域がある場合に、文書の適正な解析にとって問題となり得る(例えば、改ざん検出またはOCR解析が妨げられ得る)。
Various modes of blending the merged pixels may be employed in this step, such as Poisson imaging blending.
この工程では、ポアソン画像合成などの、マージされた画素を合成する様々なモードが用いられ得る。
As an example, to employ Poisson image blending, the gradient information or the changes of intensity throughout the entire region that is to be cloned and/or replaced is copied.
一例として、ポアソン画像合成を用いるために、クローン化されるおよび/または置き換えられるべきである領域全体にわたる勾配情報または強度の変化がコピーされる。
WO2019125793
[0019] Embodiments and examples in accordance with the principles described herein provide multiview or‘holographic’ imaging that may correspond to or be used in conjunction with a multiview display.
【0019】
本明細書で説明される原理による実施形態及び例は、マルチビューディスプレイに対応し得る、又はマルチビューディスプレイと併せて使用され得るマルチビュー又は「ホログラフィック」イメージングを提供する。
In particular, according to various embodiments of the principles described herein, multiview imaging of a scene may be provided by a plurality of cameras arranged on along a first axis.
特に、本明細書で説明される原理の様々な実施形態によれば、シーンのマルチビューイメージングが、第1の軸に沿って配置された複数のカメラによって提供され得る。
The camera plurality is configured to capture a plurality of images of the scene.
複数のカメラは、シーンの複数の画像を取り込むように構成される。
Image synthesis is then employed to generate a synthesized image representing a view of the scene from a perspective corresponding to a location of virtual camera on a second axis displaced from the first axis.
次に、画像合成を使用して、第1の軸から変位された第2の軸上の仮想カメラの位置に対応する視点からのシーンのビューを表す合成画像(synthesized image)を生成する。
According to various embodiments, the synthesized image is generated by image synthesis from a disparity or depth map of the scene.
様々な実施形態によれば、合成画像は、シーンの視差又は深度マップからの画像合成によって生成される。
A multiview image comprising the synthesized image may then be provided and displayed, according to various embodiments.
次に、様々な実施形態によれば、合成画像を含むマルチビュー画像が提供され、表示され得る。
WO2019126723
Semantic concepts may be determined based on one or more of detecting one or more objects in the image,
セマンティック概念は、画像内の1つまたは複数のオブジェクトを検出すること、
image attributes such as focus, illumination level, image composition, color distribution,
焦点、照明レベル、画像合成、色分布などの画像属性、
metadata such as location, time, and other metadata, and other factors.
位置、時間、および他のメタデータなどのメタデータ、および他の因子のうちの1つまたは複数に基づいて決定され得る。
In some implementations, the semantic concepts may be determined using a machine learning model trained to recognize semantic concepts from images.
ある実施の形態では、セマンティック概念は、画像からセマンティック概念を認識するようにトレーニングされた機械学習モデルを使用して決定され得る。
[0132] In some implementations, training may include applying unsupervised learning techniques.
【0125】
ある実施の形態では、トレーニングは、教師なし学習技法を適用することを含み得る。
In unsupervised learning, only input data may be provided and the model may be trained to differentiate data, e.g., to cluster input data into a plurality of groups, where each group includes input data that are similar in some manner.
教師なし学習では、入力データだけが提供されてもよく、モデルは、例えば入力データを複数のグループにクラスタ化するために、データを区別するようにトレーニングされてもよく、各グループは曲がりなりにも、類似する入力データを含む。
For example, the model may be trained to differentiate images such that the model distinguishes abstract images (e.g., synthetic images, human-drawn images, etc.) from natural images (e.g., photos).
例えば、モデルは、抽象画像(例えば、合成画像、人が描画した画像等である。)を自然画像(例えば写真)から区別するように、画像を区別するようにトレーニングされてもよい。