Ico_docTR

docTR

Bibliothèque open-source de compréhension de documents en python pour les développeurs et les data scientists.

This is a preview of docTR

Deep learning OCR entrainable permettant les cas d'utilisation les plus avancés en matière de compréhension des documents.

this is a docTR illustration

État de l'art

Bénéficiez des dernières avancées en matière de computer vision pour résoudre les cas d'utilisation les plus complexes dans le domaine du traitement des documents.

Open source

Créez une capacité d'OCR sur mesure qui peut être hébergée dans votre environnement afin de respecter votre politique en matière de confidentialité des données.

Entrainable

Obtenir des performances d'extraction élevées à grande échelle aux États-Unis, en l'Europe ou de n'importe quel alphabet latin, dans divers secteurs et industries.

Une bibliothèque complète de compréhension de documents pour les développeurs et les data scientists

OCR pré-entraîné

OCR en python, prêt à l'emploi, entraîné sur des millions de documents en alphabet latin

Voir la documentation

De bout en bout

Pipeline d'OCR en deux étapes utilisant des algorithmes de détection et de reconnaissance de texte

Voir plus

Entrainement

Scripts d'entraînement à la détection et à la reconnaissance de texte pour PyTorch et TensorFlow

Voir les références

Datasets publiques

Prise en charge intégrée des jeux de données publics les plus célèbres pour les défis d'OCR

Voir les datasets

Détection des artefacts

Algorithmes de détection pour les codes QR, les codes-barres, les signatures, les visages...

Voir la documentation

Benchmark

Comparaison entre les différents modèles en termes de recall, de précision et de FPS

Voir les benchmarks

TensorFlow JS

Inférence OCR dans un navigateur web avec TFJS

Voir la démo

Application de démo locale

Générateur d'interface utilisateur pour les démonstrations locales, alimenté par Streamlit

Voir la documentation

Compression du modèle

Prise en charge de la demi-précision et de la quantification pour l'optimisation des modèles

Voir la documentation