Pekín, 21 oct (EFE).- La empresa china de inteligencia artificial DeepSeek presentó un nuevo modelo multimodal que combina texto e información visual para procesar documentos extensos con menos recursos computacionales.
El sistema, denominado DeepSeek-OCR, utiliza la percepción visual como medio de compresión para disminuir significativamente el número de tokens, las unidades mínimas de texto que procesan los modelos lingüísticos, informó este martes el diario hongkonés South China Morning Post.
Según la compañía, este método puede reducir el volumen de texto entre siete y veinte veces, lo que permitiría manejar grandes cantidades de información sin elevar los costes informáticos.
El modelo, disponible en código abierto en Hugging Face y GitHub, plataformas usadas por desarrolladores pa