2022-01-11に更新

スキャンレーション

scanlation について

スキャンレーション( scanlation )で検索すると、その言葉の定義から、ガイドラインやチュートリアル、または役割名称や、その広報的なサイトの情報がたくさんある。

今は活動していないスキャンレーションのグループ名と、そのプロファイルのページのデータベース (sqlite file)。

https://www.mediafire.com/file/qlse91vdwyletgx/scanlation-g.db/file
IMG_20211113_140504_811.jpg

https://www-mangaupdates-com.translate.goog/aboutus.html?_x_tr_sl=en&_x_tr_tl=ja&_x_tr_hl=ja&_x_tr_pto=nui

過去に翻訳されたタイトルのオリジナルの和名とそれ以外の対照を作りたい場合は有効かもしれないし、そうでもないかもしれない。

著作権がらみで問題のあるコンテンツのダウンロード情報や、データ自体は含まないと宣言されているサイトから全てのスキャンレーショングループのプロファイルページの所在を抽出してから、各プロファイルページにアップデートしてアーカイブされている翻訳済みの漫画の英語タイトルを抽出すれば、プロファイルされたスキャンレーションングループについては、全ての翻訳漫画タイトルを知れるということになる。
抽出の方法はグループのプロファイルページの所在、 プロファイルページ内にある翻訳したシリーズ名、日時という順にたどると効率が良さそう。

1: タイトルを考えるのが面倒な scanlation groups counter プログラム Python link

2: a , b
2つのデータベースをマージする Lua プログラムサンプル link
:[ 依存関係 lsqlite3 https://github.com/LuaDist/lsqlite3/blob/master/examples/smart.lua]

1.1.1.1
https://en.m.wikipedia.org/wiki/1.1.1.1

スキャンレーションは海賊サイトのエコシステムの一環で、フェーズとしてはオンラインでの海賊配信の水際に位置していると考えられる。
2次創作漫画画像を作るために、漫画をスキャナーでスキャンする必要があるわけだが、漫画を入手してスキャンし、アップロード ① してダウンロードアドレスを告知する ② ということをしているというところが、ボトムで、スキャンレーションの作業のエントリーポイントにもこの行程が不可欠。
スキャンしてアップロード ① する人は必ずしもスキャンレーションチームにしかいないわけではないが、アップロードされたスキャン済み画像をダウングレード ③ して海賊配信 ④ していたり、スキャン画像をクリーンアップして翻訳、タイプセットして、翻訳版の海賊配信サイトにアップロード ⑤ していたりと、それぞれに直接関係があったり無かったりするのだろうけども、スキャンレーションという枠では、ひとまとまとまり情報として関係性が見える。例えば、このグループがここ ④ へアップロード ⑤ した等。

④ のサイト群については、正当な方法(カドカワ的に「インターネット上の海賊版対策に関する検討会議 第9回会合 平成30年10月15日 議事録[^0]」)similarweb12 3で横並びに見えるもののことを主に指すようだが、ボトムアップから見るとすると、行為とモチベーション度に着目する4とスキャンレーションのサイドからたどると動線も把握できる。スキャンレーションのさらに二次コピーなどが ④ に回収されて公開されている場合もあるだろう。トラフィックの大きさは、配信自体の技術に左右されるので、着目される経済的損失について語られるのはトラフィックの大きな上流の方のことだと思われる。漫画 BANK は ④ に含まれる(すでにアップロードされて海賊配信されているサイトからの画像流用)。

これは想像なのでイマジネーションは図にした方がいい。

oie_1I69MA5YrCfZ.png

image

https://fanlore.org/wiki/Scanlation_Process#General_Process

参考: https://kknews.cc/comic/moz43xz.html

https://kknews-cc.translate.goog/comic/moz43xz.html?_x_tr_sl=zh-CN&_x_tr_tl=ja&_x_tr_hl=ja&_x_tr_pto=nui

http://onepiece.ria10.com/Entry/3752/

https://www.similarweb.com/ja/website/mangapanda.onl/

https://www2.accsjp.or.jp/thanks/thanks39.php

https://www.neliti.com/publications/326921/accuracy-of-english-indonesian-scanlation-of-detective-conan-manga-as-compared-t

3: link

1:link / 2:link / 3:link とプログラムにせっせと、動いてもらって 3 をポチッとしてから翌日起きて、途中で止まってると思ってたら、朝になっても昼前まで止まらない量のデータをせっせと書き込んでいた。
カウンターは 106000 を越えていて、なんか無理しているなぁと思いつつ、そのわきで次のプログラムを書きはじめて、

oie_png (1).png

4:link を書いた。

たぶんこれも明日もお昼までうごいているんではないか。

https://www.oreilly.co.jp/books/9784873113487/

漠然とした中での目的としては、翻訳された(おそらく勝手に)漫画のタイトルからオリジナルのタイトルを知りたいのと、その他の言葉でのタイトルを眺めたいので、そうするとどうやって組み上げたらいいのかなということをやってみたい。

ということで、まずスキャンレーショングループが過去から現在まで翻訳したシリーズになった(単行本とかのことだと思われる)ものをカウントアップするために、まずグループのリストを作る。これが 1:link のコード。
1:link でできたリストのなかには、グループについてのプロファイリングされた個別のページのアドレスがあり、このプロファイリングされたページ上にグループの翻訳したシリーズがリストアップされている。
1:link で作れるデータベースを複数足し合わせるのが 2:link のコード。なぜ、Lua なのか、コンパクトで速いから。同じように他の言語で書いて同じような速度かもしれないが、コードを見れば、見える通りのことなのでシンプル。遅くはない。

hy (clojure lisp 風 Python) 言語に合わせて 2:link と同じものを Lua の Lisp 風言語 fennel に直してみると

2:link fennel

Vim だとプラグインを設定しないとちょっと難しい感じだけど、kakoune だとデフォルトで色分けはしてくれる。どうなってるんでしょう。vis editor も。

プロファイルされたページのシリーズタイトルを足し合わせて記録していくのが 3:link のコード。Python だが hy 言語。今のところ hy で書くメリットは分かりやすさ。
SQLite のバインドも Python 独自のものなので、select して execute されて戻ってくるデータが空のときどうやって空のデータを比較できるのかというところが言語とバインドによって違うので、そこは注意しなくてはいけない。Lua の場合は、空の場合は素通りで、値を判定する式自体を無視するよう、そのことを分かっていたらシンプル。

例えば、

local smt1 = "SELECT id FROM tbl_scanlation ORDER BY id DESC LIMIT 1 ;" 

local last1 = 0

for id in db1:urows(smt1) do
    last1 = id
end

これは Lua バインドで sqlite3 データベースの tbl_scanlation というテーブルのデータの中の primary キー連番 id 番号の最後の int 値を取り出す式を実行して last1 に代入したい箇所だが、テーブルの中にデータが入ってなければ local last1 = 0 で初期化している値が入る。 nil とか -1 とかにはならない。python や Ruby 、 go や nim など、またそれぞれ違うので、いろんな別の言語にて書き換える場合は、無い場合どういう値が入るのかよく調べなければいけない。SQLite3 自体では返ってくる値は決められているが、その値に対する値は、バインドによって書き換えられて処理されているようなので。

3:link で出来上がるデータベースの件数は三万件くらいだろうかと思っていたが、10 万件以上だった。SQLite の場合は扱える数はそれ以下のはずだが、無理でもできるとこまででいいのでがんばってもらう。

4:link の様子。お昼になっても終わっていない。
Screenshot_20211120-113635.png

一週間くらい経ってる気がするが、VALID データが 96,426 。つまり、中国、韓国、日本の漫画がスキャンレーショングループによって、それだけの数は翻訳されている。
sqlite3 database file
https://we.tl/t-xUEh2MPRcF

Screenshot_20211211-143003_kindlephoto-66542057.png


  1. 資料7 https://www.kantei.go.jp/jp/singi/titeki2/tyousakai/kensho_hyoka_kikaku/2018/kaizoku/dai9/gijisidai.html ↩︎

  2. https://en.globes.co.il/en/article-similarwebs-controversial-route-to-wall-street-1001376912 ↩︎

  3. These Chrome extensions spy on 8 million users 31 Mar 2016 https://mweissbacher.com/2016/03/31/these-chrome-extensions-spy-on-8-million-users/ ↩︎

  4. https://www.reddit.com/r/scanlation/about/ ↩︎

ツイッターでシェア
みんなに共有、忘れないようにメモ

view_list マンガサイトにつひて
第1回 ある一つのサイト についての
第2回 スキャンレーション
第3回 ある一つのサイトについての

OooooO

Crieitは誰でも投稿できるサービスです。 是非記事の投稿をお願いします。どんな軽い内容でも投稿できます。

また、「こんな記事が読みたいけど見つからない!」という方は是非記事投稿リクエストボードへ!

有料記事を販売できるようになりました!

こじんまりと作業ログやメモ、進捗を書き残しておきたい方はボード機能をご利用ください。
ボードとは?

コメント