google翻訳が進化しすぎていてやばい

GOOGLE翻訳がDeepLearningで大幅に精度向上したと聞いて、試してみた。
結果としてはかなり使える!!!
英語の苦手な僕にとって、これまで英語論文の購読がストレスのもとだったけれど、これで大分緩和されそう。

nlab.itmedia.co.jp

SPP-NETの原文を翻訳させてみる

原文はここから引用しています。内容自体もなかなか面白いけれど、今回の論点はそこではない。
https://arxiv.org/pdf/1406.4729v4.pdf

例えば上記論文のアブストを訳してみると・・・

"""
Existing deep convolutional neural networks (CNNs) require a fixed-size input image. This requirement is “artificial” and may reduce the recognition accuracy for the images or sub-images of an arbitrary size/scale.
In this work, we equip the networks with another pooling strategy, “spatial pyramid pooling”, to eliminate the above requirement. The new network structure, called SPP-net, can generate a fixed-length representation regardless of image size/scale.
Pyramid pooling is also robust to object deformations. With these advantages, SPP-net should in general improve all CNN-based image classification methods. On the ImageNet 2012 dataset, we demonstrate that SPP-net boosts the accuracy of a variety of CNN architectures despite their different designs. On the Pascal VOC 2007 and Caltech101 datasets, SPP-net achieves state-of-the-art classification results using a single full-image representation and no fine-tuning.
The power of SPP-net is also significant in object detection. Using SPP-net, we compute the feature maps from the entire image only once, and then pool features in arbitrary regions (sub-images) to generate fixed-length representations for training the detectors. This method avoids repeatedly computing the convolutional features. In processing test images, our method is 24-102 faster than the R-CNN method, while achieving better or comparable accuracy on Pascal VOC 2007.
In ImageNet Large Scale Visual Recognition Challenge (ILSVRC) 2014, our methods rank #2 in object detection and #3 in image classification among all 38 teams. This manuscript also introduces the improvement made for this competition.
"""

エキサイト翻訳の場合

この文章をエキサイト翻訳にかけるとこうなる。
申し訳ないけれど、これなら原文をそのまま読んだほうがいいレベル。

"""
既存の深い渦巻き状のニューラルネットワーク(CNNs)は固定サイズインプットイメージを必要とする。この要件は「人工的で」、任意のサイズ/スケールのイメージまたはサブイメージのための認識精度を減らすことができる。
この仕事において、私達は、上記の要件を取り除くために、別の水たまりを作っている戦略、「空間のピラミッド水たまりを作り」をネットワークに装備する。イメージサイズ/スケールを問わず、新しいネットワーク構造〈SPP-ネットと呼ぶ〉は、固定長表現を生成できる。
ピラミッドに水たまりを作ることは、また、反対する 変形 ために頑強である。これらの利点によって、SPP-ネットは、一般改善 すべてのCNNベースのイメージ分類方法 においてするべきである。ImageNet 2012データセットにおいて、私達は、それらの種々のデザインにもかかわらずSPP-ネットが各種のCNNアーキテクチャの精度を押し上げるのを証明する。パスカルVOC 2007とCaltech101データセットにおいて、SPP-ネットは、単一の完全イメージ表現と微調整を全然使わず最先端の分類結果を達成する。
SPP-ネットのパワーはまた、オブジェクト検出において重要である。SPP-ネットを使うことによって、私達は、全体のイメージから機能マップをほんの1回計算し、それから、検出器を訓練するための固定長表現を生成するために、任意の地域(サブイメージ)の機能に共同出資する。この方法は、繰り返し渦巻き状の機能を計算することを避ける。テストイメージを処理する時に、私達の方法は、パスカルVOC 2007のよりよいまたは同等の精度を達成する間、R-CNN方法より速く24-102である。
ImageNetの大きなスケールビジュアル認識挑戦(ILSVRC)2014において、私達の方法はすべての38のチームの間のイメージ分類でのオブジェクト検出と#3において#2をランク付けする。この原稿は、この競争のために作られた改良も導入する。
"""

GOOGLE翻訳の場合

この文章をGOOGLE翻訳に読ませるとこうなる。
自然すぎて感動する。論文でかっちりした文章だから相性がいいのだろうか?これなら、原文そのまま読むより、まずは翻訳させたものを読んで概要を掴めそう。
いやほんと、技術はどんどん進歩しているなぁ。GOOGLE翻訳にも手伝ってもらいながら、少しでもピックアップしなきゃ。

"""
既存の深い畳み込みニューラルネットワーク(CNN)は、固定サイズの入力画像を必要とする。この要件は「人工的」であり、任意のサイズ/スケールの画像またはサブ画像の認識精度を低下させる可能性がある。
この作業では、上記の要件を排除するために、ネットワークに別のプーリング戦略「空間ピラミッドプーリング」を装備しています。 SPP-netと呼ばれる新しいネットワーク構造は、画像サイズ/スケールに関係なく固定長表現を生成することができます。
ピラミッドプーリングは、オブジェクトの変形に対しても堅牢です。これらの利点を利用して、SPP-netは一般にすべてのCNNベースの画像分類方法を改善すべきである。 ImageNet 2012のデータセットでは、SPP-netがさまざまな設計にもかかわらず、さまざまなCNNアーキテクチャの精度を向上させることを実証しています。 Pascal VOC 2007およびCaltech101データセットでは、SPP-netは単一のフルイメージ表現を使用し、微調整は行わず最先端の分類結果を達成します。
SPP-netの機能は、オブジェクト検出においても重要です。 SPP-netを使用して、画像全体から特徴マップを1回だけ計算し、特徴を任意の領域(サブ画像)にプールして、検出器を訓練するための固定長表現を生成する。この方法は、畳み込み特徴を繰り返し計算することを回避する。テスト画像の処理では、我々の手法はR-CNN法より24-102速く、Pascal VOC 2007ではより良い精度または同等の精度を達成しています。
ILSVRC(ImageNet Large Scale Visual Recognition Challenge)2014では、我々の方法は物体検出で2位、画像分類で3位、全38チームでランク付けされています。この原稿はまた、この競争のためになされた改善を紹介します。
"""