Skip links

Las limitaciones de la tecnología y por qué los teléfonos inteligentes no siguen las reglas de las cámaras «reales»

Si bien las cámaras de teléfonos inteligentes y las cámaras independientes (a veces llamadas cámaras «reales») a menudo se venden en los mismos términos, cada una funcionan de manera muy diferente. En el video enviado a TED-ED, la ingeniera eléctrica Rachel Yang lo simplificó y explicó por qué los teléfonos inteligentes no operan de acuerdo con las reglas de las cámaras independientes.

La explicación puede ser familiar para aquellos que están muy familiarizados con cómo funcionan las cámaras, pero para la mayoría de las personas que toman fotos con sus teléfonos, el video de arriba será una excelente manera de desglosar un tema complejo de manera simple y rápida de una manera más digestible. Es una muy buena manera de explicar rápidamente por qué las lentes reflectantes modernas o las DSLR tienen el mismo término de marketing que los últimos dispositivos Apple iPhone, Google Pixel o Samsung Galaxy, pero el resultado final es muy diferente.

En ambos casos, el tamaño del sensor y su óptica frontal juegan el mayor papel en la calidad de la imagen, que Yang explica puede estar relacionado con tres factores: resolución, rango dinámico y ruido.

«El primero es la resolución o el nivel de detalle. Los sensores con fotones más altos proporcionan una mejor resolución porque la cámara puede recopilar más datos de luz de partículas. El segundo y el tercero son el rango y el ruido dinámicos. El rango dinámico es el tramo de luz a oscuro en una sola foto, el ruido es la diferencia de mala luz, el tiempo de exposición largo o incluso más cámaras se pueden capturar.

«Estos datos más amplios ayudan al procesador a medir mejor la intensidad de la luz entrante, aumentar el contraste y reducir el ruido. En resumen, para hacer una mejor cámara digital, necesita un sensor de imagen con fotones más grandes y más grandes. Los ingenieros lo saben».

Es por eso que las cámaras independientes han usado el Modelo 1 durante años con sensores más grandes u otro nombre confuso «una pulgada», los sensores suelen ser el fotógrafo más pequeño que debe conocer, lo que sería factible, con el otro extremo en formato medio y el sensor digital más grande.

Pero los teléfonos inteligentes tienen poco espacio para los sensores, y la mayoría de las personas ni siquiera tienen un espacio tipo 1. Si bien la calidad de la imagen a nivel del sensor está en un nivel que es suave para ambos, los problemas asociados con la meseta serán más obvios, y si no es adecuado para un teléfono inteligente real, la cámara independiente no: Manejo muy potente: manejo muy potente.

«Cuando toma fotos en su teléfono, esta computadora de bolsillo comienza a ejecutar algoritmos complejos, generalmente comenzando con un disparo de secuenciación rápida», dijo Young en una breve descripción de lo que es la fotografía computacional.

«El algoritmo manipula estas imágenes, se alinea perfectamente con la alineación matemática y determina sus mejores partes, y luego incorpora las imágenes en una foto de alta calidad. El resultado final es un ruido menos ruido, una imagen de rango dinámico más grande y una resolución más alta que su sensor debe lograr».

Young no tiene conjeturas sobre cómo estos hechos se aplicarán a futuras cámaras. Como se mencionó anteriormente, la tecnología de sensores está siendo suave. A mediados de los 2010, los sensores mejoraron significativamente casi todos los años, mientras que las saltas y los límites funcionaron mejor que los modelos anteriores. Pero en 2025, esta tendencia ha ralentizado mucho los años que se necesitan nuevos sensores para llegar al mercado, y a menudo se transporta en un compromiso: resolución versus ruido o velocidad de lectura (por ejemplo, este último es muy necesario para una fotografía computacional adecuada).

Con el Sensor Basic Sensor Silicon ya no mejora, los fabricantes de teléfonos inteligentes han comenzado a confiar más en el aprendizaje automático y la IA. Samsung, por ejemplo, ha lanzado sus dos últimos teléfonos inteligentes principales para mejoras de IA, con pocos ajustes de hardware en el lado de la cámara. Google hace lo mismo. Apple sorprendió a la tendencia este año ajustando el tamaño físico del sensor en la cámara selfie de selfie y la cámara de teleobjetivo, pero ¿qué pasa el próximo año o un año después? La física sigue siendo el mayor obstáculo para mejorar las imágenes, y aunque algunas de las características de AI y aprendizaje automático agregadas por los fabricantes de teléfonos inteligentes son ordenados, parecen estar ofreciendo constantemente.

Los próximos años de desarrollo del sensor de cámaras serán la clave para comprender cuánto (si alguna) las cámaras de teléfonos inteligentes pueden obtener.

Leave a comment

Home
Account
Cart
Search
¡Hola! ¡Pregúntame lo que quieras!
Explore
Drag