Esta IA de Google quiere revolucionar la fotografĂ­a en celulares. Y no necesita ni muchos megapĂ­xeles ni grandes sensores.

esta ia de google quiere revolucionar la fotografĂ­a en celulares. y no necesita ni muchos megapĂ­xeles ni grandes sensores.

La fotografía computacional es uno de los mayores regalos (y a su vez, maldiciones) que nos ha traído la tecnología. Terminales como el Google Pixel de primera generación demostraban que *el teléfono puede llegar a ver incluso mås que nosotros*, brillando especialmente en fotografía nocturna.


Disparar en baja luz, no obstante, supone un gran reto. *El sensor generarĂĄ mĂĄs ruido de la cuenta* si escasea la luminosidad y aquĂ­ se pueden tomar dos decisiones: respetar el ruido para preservar el detalle, o *eliminar el ruido (lavar la foto), perdiendo asĂ­ detalle*. Esta Ășltima decisiĂłn es la mĂĄs popular en smartphones, y Google ya estĂĄ entrenando a una IA para solucionar esta problemĂĄtica.Google quiere fotografĂ­as limpias de ruido, pero con detalle


MultiNerf es el proyecto de Google, lanzado en cĂłdigo abierto, para solucionar la problemĂĄtica de la fotografĂ­a nocturna. Sigue habiendo cierta aversiĂłn por parte los usuarios al ruido digital, y *los algoritmos de Google quieren solucionar el problema* sin cargarse el detalle de las fotografĂ­as por el camino.


Google se basa en NeRF (Neural Radiance Fields), una red neuronal desarrollada, en primera instancia, para generar imågenes 3D basåndose en conjuntos 2D. El propósito de basarse en NeRF es que, *a partir de una imagen 3D la IA lo tiene mås sencillo para analizar la información de la imagen* ya que puede "moverse" a través de la misma.


"Modificamos NeRF para entrenar directamente en imågenes en bruto lineales, preservando todo el rango dinåmico de la escena. Al renderizar imågenes de salida sin procesar del NeRF resultante, podemos realizar nuevas tareas de síntesis de vistas de alto rango dinåmico (HDR). Ademås de cambiar el punto de vista de la cåmara, podemos manipular el enfoque, la exposición y el mapeo de tonos después del hecho.


Los algoritmos de este modelo analizan los datos en bruto del archivo RAW, y utilizan inteligencia artificial para detectar cuĂĄl serĂ­a la informaciĂłn que tendrĂ­an si no hubiese ruido en esa escena. En otras palabras, *intentan preservar el detalle del RAW, a pesar de que posteriormente se elimine el ruido*.


A pesar de que este modelo aĂșn estĂĄ siendo investigado, supone una importante base para el futuro de la fotografĂ­a computacional. *Esperemos que dentro de no mucho, los Pixel empiecen a implementar esta tecnologĂ­a*, y que se expanda al resto de fabricantes.


No hay comentarios.:

Con tecnologĂ­a de Blogger.