digiKam

digiKam 7.6.0 – Descargar gratis

0
(0)

digiKam es una aplicación avanzada de gestión de fotos digitales para KDE, que hace que importar y organizar fotos digitales sea muy fácil. Las fotos se organizan en álbumes que se pueden ordenar cronológicamente, por disposición de carpetas o por colecciones personalizadas.

¿Cansado de las restricciones de la carpeta? No se preocupe, digiKam también proporciona etiquetado. Usted etiqueta sus imágenes, que se pueden distribuir en varias carpetas, y digiKam proporciona formas rápidas e intuitivas de explorar estas imágenes etiquetadas. También puede agregar comentarios a sus imágenes. digiKam hace uso de una base de datos rápida y sólida para almacenar esta metainformación, lo que hace que agregar y editar comentarios y etiquetas sea muy confiable.

digiKam utiliza complementos KIPI para muchas funcionalidades adicionales. KIPI (KDE Image Plugin Interface) es una iniciativa para crear una infraestructura de complemento común para digiKam, KPhotoAlbum y GwenView. Su objetivo es permitir el desarrollo de complementos de imagen que se pueden compartir entre las aplicaciones gráficas de KDE.

Se proporciona una interfaz fácil de usar que le permite conectarse a su cámara y obtener una vista previa, descargar y/o eliminar sus imágenes. Las transformaciones automáticas básicas se pueden implementar sobre la marcha durante la descarga de imágenes.

Otra herramienta, con la que la mayoría de los artistas y fotógrafos estarán familiarizados, es una mesa de luz. Esta herramienta ayuda a los artistas y fotógrafos a revisar su trabajo garantizando únicamente la más alta calidad. Una clásica mesa de luz indicará al artista el lugar de las imágenes a retocar. Bueno, en digiKam, la función de mesa de luz brinda al usuario una experiencia similar. Puede importar una foto, arrastrarla a la mesa de luz y retocar solo las áreas que lo necesitan.

Características:

  • Importar imágenes
  • Organiza tu colección
  • Ver artículos
  • Editar y mejorar
  • Crear (presentaciones de diapositivas, calendario, imprimir)
  • Comparta sus creaciones (utilizando servicios web sociales, correo electrónico, su propia galería web)

Qué hay de nuevo:

Notas de lanzamiento completas aquí.

Gestión de caras impulsadas por aprendizaje profundo

Durante muchos años, digiKam ha brindado una característica importante dedicada a detectar y reconocer rostros en fotografías. Los algoritmos utilizados en segundo plano (no basados ​​en aprendizaje profundo) eran antiguos y no habían cambiado desde la primera revisión que incluía esta función (digiKam 2.0.0). Tenía el problema de no ser lo suficientemente potente como para facilitar el flujo de trabajo de gestión de rostros de forma automática.

Hasta ahora, las metodologías complejas que analizaban el contenido de las imágenes para aislar y etiquetar los rostros de las personas usaban el clasificador en cascada clásico basado en funciones de la biblioteca OpenCV. Esto funciona, pero no proporciona un alto nivel de resultados positivos. La detección de rostros puede dar el 80% de los buenos resultados, mientras que el análisis no es tan malo, pero requiere muchos comentarios de los usuarios para confirmar si lo que ha detectado es realmente un rostro o no. Además, según los comentarios de los usuarios de bugzilla, el reconocimiento facial no proporciona una buena experiencia cuando se trata de un mecanismo de etiquetado automático para personas.

Durante el verano de 2017, asesoramos a una estudiante, Yingjie Liu, que trabajó en la integración de redes neuronales en la canalización de Face Management basada en la biblioteca Dlib. El resultado fue en su mayoría demostrativo y muy experimental, con resultados deficientes en velocidad de cálculo. Vimos esto como una prueba técnica de concepto, pero no utilizable en producción. El enfoque para resolver el problema dio un giro equivocado y es por eso que la opción de aprendizaje profundo en Face Management nunca se activó para los usuarios.

Lo intentamos nuevamente este año, y un nuevo estudiante llamado Thanh Trung Dinh completó con éxito una reescritura completa del código.

El objetivo de este proyecto era dejar atrás todas las ideas antiguas y trasladar los motores de detección y reconocimiento a enfoques de aprendizaje profundo más modernos. El nuevo código, basado en funciones recientes de Deep Neural Network de la biblioteca OpenCV, utiliza redes neuronales con modelos de datos preaprendidos dedicados a Face Management. No se requiere una etapa de aprendizaje para realizar la detección y el reconocimiento de rostros. Hemos ahorrado tiempo de codificación, velocidad de tiempo de ejecución y mejorado la tasa de éxito que alcanza el 97% de verdaderos positivos. Otra ventaja es que es capaz de detectar rostros no humanos, como los de perros, como puedes ver en esta captura de pantalla.

Pero hay más mejoras en la detección de rostros. El modelo de red neuronal que utilizamos es realmente bueno ya que puede detectar rostros borrosos, rostros cubiertos, perfiles de rostros, rostros impresos, rostros vueltos hacia otro lado, rostros parciales, etc. Los resultados procesados ​​en grandes colecciones dan excelentes resultados con un bajo nivel de falsos positivos. Vea los ejemplos a continuación de los desafíos de detección de rostros realizados por la red neuronal.

El flujo de trabajo de reconocimiento sigue siendo el mismo que en versiones anteriores, pero incluye bastantes mejoras. Necesitas enseñarle a la red neuronal algunas caras para que automáticamente las reconozca en una colección. El usuario debe etiquetar algunas imágenes con la misma persona y ejecutar el proceso de reconocimiento. La red neuronal analizará las caras ya detectadas como desconocidas y las comparará con las que ya están etiquetadas. Si se reconocen elementos nuevos, el flujo de trabajo automático resaltará las caras nuevas con un borde verde alrededor de una miniatura e informará cuántos elementos nuevos están registrados en la etiqueta de cara. Vea la captura de pantalla a continuación tomada mientras se ejecuta el proceso de reconocimiento facial.

El reconocimiento puede comenzar a funcionar con solo una cara etiquetada, donde se necesitaban al menos 6 elementos para obtener resultados con los algoritmos anteriores. Pero, por supuesto, si ya se ha etiquetado más de una cara, es más probable que el reconocimiento arroje buenos resultados. La verdadera tasa de reconocimiento positivo con el aprendizaje profundo es realmente excelente y aumenta al 95 %, donde los algoritmos más antiguos no podían alcanzar el 75 % en el mejor de los casos. El reconocimiento también incluye una configuración de Sensibilidad/Especificidad para ajustar la precisión de los resultados, pero le recomendamos que deje la configuración predeterminada cuando comience a experimentar con esta función con su propia colección.

El rendimiento es mejor que con versiones anteriores, ya que la implementación admite múltiples núcleos para acelerar los cálculos. También hemos trabajado arduamente para solucionar fugas de memoria graves y complejas en la canalización de administración de rostros. Este truco tardó muchos meses en completarse, ya que los errores eran muy difíciles de reproducir. Puedes leer la larga historia en esta entrada de bugzilla. Resolver este problema nos permitió cerrar una larga lista de informes anteriores relacionados con la gestión de rostros.

Para completar su proyecto, Thanh Trung Dinh presentó la nueva gestión de rostros de aprendizaje profundo en Akademy 2019 celebrada en septiembre en Milán. La charla fue grabada y está disponible aquí.

Si bien el proyecto de Thanh está completo, la historia completa no lo está y la segunda etapa de reescribir el flujo de trabajo de Face Management es un proceso continuo con dos nuevos estudiantes trabajando en él este verano.

Opciones de descarga:

  • ventanas de 64 bits

  • ventanas de 32 bits

  • Mac OS

  • Linux de 32 bits

  • linux de 64 bits

¿Le ha parecido útil este contenido?

¡Haz clic en una estrella para puntuar!

Promedio de puntuación 0 / 5. Recuento de votos: 0

Hasta ahora, ¡no hay votos!. Sé el primero en puntuar este contenido.