公式ドキュメント
https://github.com/SwiftyTesseract/SwiftyTesseract#recognition-results
学習済みデータ
https://github.com/tesseract-ocr/tessdata_best
この文書作成時点での最新verでも問題なく動作。
ただし日本語に関しては今の所ひらがな手書きしか確認していないが、精度がイマイチ。
EX)“う"と"つ"の認識。“き"と"さ"の認識がシビア
導入の流れ
podでライブラリを導入。
->
"tessdata"という名前でフォルダを作ってその中に機械学習済みデータをいれる。学習データは精度重視のbest版、速さ重視のfast版などがある。
->
ドキュメントに沿ってSwiftyTesseractインスタンスを作ってそれを使って実際に画像を解析して結果を返す処理を書く。
精度がかなり厳しかったのでここを改善していく方法が個人個人で変わりそう。
whitelistというもので認識する文字を限定することもできるみたいなのでひらがなだけ認識したい場合とかはそれだけ指定することで 変な翻訳は避けれそう。
具体的コード
viewDidLoad内
//swiftyTesseractインスタンスにメソッドチェーンを使って値をセット
swiftyTesseract.whiteList = "あいうえおかきくきこさしすせそなにぬねのたちつてと"