Ingenieros diseñan materiales dinámicos utilizando inteligencia artificial

Los materiales diseñados, conocidos como redes neuronales mecánicas, son capaces de responder a las condiciones ajustando la rigidez de sus vigas.

The mechanical neural network (MNN) designed by UCLA mechanical engineers is merely a starting point for developing materials with AI capabilities.
The mechanical neural network (MNN) designed by UCLA mechanical engineers is merely a starting point for developing materials with AI capabilities.

Los ingenieros de UCLA han diseñado un material que puede adaptarse a las condiciones cambiantes.

El material consta de haces sintonizables que pueden ajustar dinámicamente su comportamiento para adaptarse a los cambios en su entorno, incluidos «niveles crecientes de daño interno, escenarios de fijación variables y cargas externas fluctuantes», según un artículo publicado en Science Robotics.

El estudio experimental sienta las bases para los materiales de IA que se pueden aplicar en la construcción de edificios, aviones y tecnologías de imagen, señalaron los autores.

“Esta investigación presenta y demuestra un material inteligente artificial que puede aprender a exhibir los comportamientos y propiedades deseados al aumentar la exposición a las condiciones ambientales”, dijo el profesor de ingeniería mecánica y aeroespacial Jonathan Hopkins de la Escuela de Ingeniería UCLA Samueli, quien dirigió la investigación. “Los mismos principios fundamentales que se utilizan en el aprendizaje automático se utilizan para dar a este material sus propiedades inteligentes y adaptativas”.

Características

El material se puede comparar con la forma en que las redes neuronales artificiales (los algoritmos que impulsan el aprendizaje automático) ajustan sus pesos. Las «redes neuronales mecánicas» (MNN) del material son capaces de aprender a ajustar la rigidez de sus haces constituyentes, explicaron los autores.

Los haces individuales de los MNN están organizados en un patrón de celosía triangular. Cada haz cuenta con una bobina de voz, medidores de tensión y flexiones. Estas características “permiten que el haz cambie su longitud, se adapte a su entorno cambiante en tiempo real e interactúe con otros haces en el sistema”, señalaron los investigadores.

En un ejemplo, los investigadores describen cómo se podría usar el material en las alas de los aviones. El material podría aprender a transformar la forma de las alas para adaptarse a los patrones del viento durante un vuelo como una forma de mejorar la eficiencia y la maniobrabilidad. Señalaron que también es concebible que el material pueda ayudar a mejorar la rigidez y la estabilidad general en aplicaciones de infraestructura, donde los terremotos o los desastres naturales y provocados por el hombre representan un riesgo.

La bobina de voz se utiliza para iniciar una compresión o expansión afinada en respuesta a las fuerzas aplicadas en el haz. El medidor de tensión recopila datos del movimiento del haz utilizado en el algoritmo para controlar el comportamiento de aprendizaje. Las flexiones conectan las vigas móviles al sistema.

El sistema está además respaldado por un algoritmo de optimización que regula el sistema. Aprovecha los datos de las galgas extensométricas para determinar una configuración de valores de rigidez que controlará la red, explicaron los autores. Se colocaron cámaras en los nodos de salida del sistema para validar las acciones realizadas por el sistema monitoreado por galgas extensométricas.

El sistema tiene aproximadamente el tamaño de un horno de microondas, pero los investigadores planean simplificar el diseño de MNN para que miles de redes puedan fabricarse a microescala dentro de redes 3D para aplicaciones prácticas de materiales.

Otras aplicaciones sugeridas para el uso de MNN incluyen la incorporación en una armadura para desviar las ondas de choque, así como en tecnologías de imágenes acústicas para aprovechar las ondas de sonido.


Fuente:

Cómo conseguiremos que la inteligencia artificial no se nos vaya de las manos

Os dejo un interesante artículo de Enrique Pérez en Xataka.

No hace falta pensar que la IA se convertirá en un supervillano al estilo Skynet para tener este debate. El potencial de la inteligencia artificial es enorme y todavía solo hemos rascado la superficie. ¿Cómo lograr que su impacto sea beneficioso para todos? Es una pregunta que se repitió una y otra vez durante el Global AI Summit 2022.

Aprovechamos nuestra presencia allí para hablar con distintos expertos en regulación y uso ético de los algoritmos. Estas han sido sus reflexiones sobre cómo nos aseguraremos que la IA no se nos vaya de las manos.

Nos afecta a todos. La inteligencia artificial es una herramienta. En ocasiones parece que «funcione sola», pero nada más lejos de la realidad. Hay un algoritmo detrás, hay una base de datos en la que se basa. Pese a que la mayoría coincide en que cada vez dejaremos que la IA se ocupe de una mayor parte del trabajo, también se recuerda que los humanos debemos seguir en el centro.

Constanza Gomez Mont, CEO de C Minds, organización colaboradora de la UNESCO para la IA ética, lo resume así: «la IA es una tecnología transversal. No hay forma de que no toque todos los sectores. Por ello hace falta una mirada crítica. Mantener un discurso público donde se tengan en cuenta los riesgos».

Constanza Gomez

Hemos visto IAs en el mundo del arte, en la salud o en restauración. Cada cual más sorprendente y distinta. «El enfoque es distinto en cada sector, pero hay que llegar donde está esa intersección. Cada uno desde cada trinchera», apunta Constanza. Pese a que la IA es un concepto muy genérico, hay que intentar encontrar formas comunes de afrontarla.

Hay que ir a la raíz: los datos. Es el mantra más repetido. Datos, datos y más datos. La IA al final es detección de patrones en datos. Lamentablemente, las bases de datos sobre las que trabajan muchas inteligencias artificiales no siempre son las más precisas o adecuadas.

«Si no hay diversidad de datos, el resultado ya no podrá evitar estar sesgado». Constanza explica que hay que aplicar mejores políticas en la revisión de los datos y prepararlos adecuadamente. Ya no es solo que estos datos estén bien ordenados, sino que sean lo suficiente diversos. Si por ejemplo en la base de datos únicamente hay hombres blancos, es imposible que la IA presente resultados plurales. Los sesgos de base se replican luego y hay que evitar que la IA ayude a perpetuar determinadas asimetrías.

¿La solución? Organizaciones como la que preside Constanza explican que es importante la diversidad de equipos. «Los datos son reflejo de los equipos». Si las grandes empresas quieren una IA más plural, además de fijarse en su tecnología hay que fijarse en las propias personas que la elaboran. De nuevo, las máquinas son fiel reflejo del hombre.

Hemos estado en el mayor evento mundial sobre inteligencia artificial. Es como volver a los inicios de la digitalización

EN XATAKA

Hemos estado en el mayor evento mundial sobre inteligencia artificial. Es como volver a los inicios de la digitalización

No es regular la IA, sino los posibles problemas de la IA. «Europa está a la delantera en regulación». Constanza repasa la importancia del RGPD y de la futura legislación sobre IA, pero también pone el foco sobre Latinoamérica, donde pese a no haber una regulación genérica sí hay protocolos sobre IA en países como MéxicoUruguay o Brasil. «La conversación va más allá. Cuando empecé se quedaba ahí, pero el debate ahora es mucho más maduro. Ya se habla por ejemplo de cuáles son las fuentes de energía de la IA y su impacto medioambiental».

La visión de Constanza es que los países no deben intentar regular la tecnología por sí misma, ya que ni siquiera sabemos todavía su impacto. En cambio, sí hay que pensar sobre los problemas que pueden estar asociados y ahí sí regularlos. Aquí entran desde poner límites al gasto energético hasta forzar a que se tengan en cuenta aspectos como la diversidad o la inclusividad para personas con discapacidad. «Todos estos aspectos no están peleados con la viabilidad económica».

«No sé si el aparato público está a la par de velocidad en cuestiones tan fundamentales. Con un ritmo tan acelerado no sé si el debate está a la altura, pero lo importante es que al menos exista y englobe a todos los sectores».

El resultado de una IA no es el mismo si ponemos a los humanos en el centroSeth Dobrin, fundador de Qantm AI y ex Chief Data Officer de IBM, ha pasado de directivo de una gran multinacional a crear una pequeña consultora centrada en revisar los procesos de la IA. Para Seth hay que tener un «enfoque que ponga al humano en el centro». Y nos los explica de la siguiente manera: «la IA de un banco no ofrecerá el mismo resultado si únicamente sigue criterios económicos o valora a la persona como tal y si puede pagar la hipoteca».

Seth Dobrin

Si queremos aspirar a que la IA no se nos vaya de las manos, el diseño de estas tiene que pensar desde un inicio en las posibles consecuencias. «Es muy fácil centrarse en el lado técnico y olvidarse de la estrategia», resume. Ahora mismo todos los esfuerzos van en producir IAs más potentes y precisas, pero los expertos consideran que hace falta más debate sobre si estos resultados, además de precisos también son suficiente diversos y beneficiosos para las personas.

«Hacer la IA más humanista no está reñida con un buen modelo de negocio. De hecho, aporta más valor. Al final, tus clientes como empresa son humanos», expone Seth. Si los ingenieros crean las IA teniendo presentes los posibles sesgos y resultados, será luego más fácil revisarlas en el futuro.

«No siempre tener más datos es mejor. A veces es mejor tener un conjunto de datos más pequeño pero bien revisado. Luego siempre se puede entrenar la IA para un caso de uso específico», responde Seth ante la pregunta de si existe hoy en día una sed insaciable por conseguir datos de todos lados.

Transparencia algorítmica. Los resultados de la IA nos fascinan, pero ahí se queda todo. Vemos una imagen bonita de DALL-E, pero no entendemos en qué está basada. Recibimos una traducción de Google, pero sigue habiendo dudas sobre hasta qué punto guardan nuestras conversaciones. «Hay que añadir a la conversación a la persona de quién estás pillando los datos», explica Seth.

«Hay una necesidad real de transparencia algorítmica«, apuntan los distintos expertos consultados. «Hay que hacer entender a todos los participantes de la importancia de analizar el impacto. Si no hacemos un uso responsable de la IA, acabaremos rompiendo la tendencia exponencial de crecimiento e iremos hacia atrás».

«Afortunadamente hay modelos de lenguaje open source, se está mejorando la eficiencia energética y cada vez se habla más de la importancia de una IA responsable. Son brotes verdes», opina Seth, quien pese a que sí admite que gran parte es marketing, también hay un avance real que poco a poco tiene más fuerza.

«Tenemos que hablar». «La regulación es una necesidad, sobre todo en el ámbito de la salud. Me gusta el enfoque de la AI Act de Europa, donde se regulan los resultados y no la tecnología en sí misma. Tiene sentido, porque al final no se puede regular un lenguaje de programación. Mañana puede ser otro totalmente distinto», apunta Seth.

Además de Europa, otros países como Estados Unidos también han entendido la necesidad de regular la IA. El enfoque de las categorías y sus riesgos tiene bastantes defensores. Por ejemplo sobre el reconocimiento facial apuntan que su uso debería ser factible para ciertos momentos como el acceso a los aeropuertos, pero que un uso masivo de videovigilancia es más peligroso.

«Hay que hablar sobre IA y hay que hacerlo ya», resume Seth. «Hay que mirar cómo regular y cómo educar a las futuras generaciones. Si no lo aplicamos ya, la siguiente generación dentro de 10 años tendrá un problema».

Definir quién se hace responsable. Mariagrazia Squicciarini, directora de tecnología e innovación de la Organización para la Cooperación y el Desarrollo Económicos Trabajo (OCDE), reconoce que estamos lejos de una solución. «No es sencillo coordinar los esfuerzos en regular la inteligencia artificial. Afecta a todos los sectores y con muchos enfoques; salud, empleo, privacidad…».

Mariagrazia

Una ventaja es que «la mayoría de los problemas con la IA son los mismos en la mayoría de países». Es decir, los desafíos que tenga Europa con la IA puede ser similares a los que tenga EEUU o Latinoamérica. Pero esta similitud también es un desafío, en el sentido de que si una empresa quiere crear una IA y en determinado sitio tiene muchas trabas, se irá al país de al lado. En cómo conseguir que la IA siga evolucionando rápidamente está una de las preguntas a los que se enfrentan desde la OCDE.

«Estamos en un momento crítico. Necesitamos llegar a consensos. Hay que definir bien cosas cómo quién se hace responsable de una IA. ¿La compañía? ¿Un jefe de ética de la compañía? Sea quien sea, hay que saber a quién nos podemos dirigir para pedirle información y responsabilidad».

Y también definir cuál es la función de cada IA. Hassan Sawaf es CEO de aiXplain y ex director de inteligencia artificial de Facebook, Amazon Web Services y eBay. Con más de 25 años de experiencia en los departamentos de innovación de las grandes compañías tecnológicas, Hassan tiene bastante claro lo que se necesita: «entender a la IA y ser capaces de adaptarnos rápidamente».

«¿Qué significa que una IA es mejor? ¿Cómo podemos definir bien los benchmarks que definen que una IA es más potente?», se pregunta Hassan. La respuesta no la tiene clara, pero no es aquella IA que está entrenada en más parámetros.

Hassan Sawaf

«Necesitamos definir los problemas que queremos resolver. Cambiar los benchmarks para acercarnos al caso práctico», expone. Por ejemplo GPT-3. ¿Qué buscamos que nos diga la IA? No es solo enlazar frases inteligentes; no es solo aparentar que entiende la pregunta; no es hacerse pasar por una conciencia. Si queremos ser capaces de mejorar modelos como el de OpenAI no se necesitará solo entrenar más, sino empezar a definir qué es lo que vamos a pedirle. Estamos en un punto de casi fuerza bruta, pero los expertos piden que dejemos de maravillarnos con los resultados y empecemos a ser más críticos con estas herramientas.

Entender a las máquinas. «Hay que entender cómo piensan las máquinas. Qué necesitan y dónde tienen más problemas». Un ejemplo es el lenguaje. «El inglés no es el idioma más sencillo para una IA. Lógicamente no es la gramática, que es trivial para la IA. Pero tampoco consiste en lo bien estructurado que esté el idioma. Idiomas como el inglés o el chino son difíciles porque utilizan muchas metáforas. Muchos conceptos abstractos, casi coloridos o basándose en el contexto. Esta complejidad es la más difícil de entender para una máquina».

Conseguir que la IA no se nos vaya de las manos también es cuestión de que estas metáforas no sean sacadas de contexto. Las sutilezas de las interacciones humanas tendrán como resultado todo tipo de incoherencias y errores. Algunos de estos pueden tener repercusiones serias. La IA avanza rápido, pero si definimos bien cada parte del proceso podremos delimitar mucho mejor su impacto.


Fuente: www.xataka.com

Por: ENRIQUE PÉREZ @Lyzanor

How sensor fusion is driving vehicle autonomy forward
page banner image

As these systems extend to critical and time-sensitive applications – such as emergency braking, automatic parking, front-collision warning and avoidance, and blind spot detection – design engineers will need to fuse these different information sources into a single picture to deliver reliable real-time decisions.

“For automatic parking, you need to combine data from cameras, radar and sometimes ultrasound to give the vehicle an accurate sense of what’s going on around you,” said Curt Moore, general manager for Jacinto™ processors at our company. “None of these sensors would be accurate enough on their own, but by combining them, you can get a much more accurate picture of the space around you. This allows you to park in much tighter spaces without the risk of causing damage.”

The proliferation of automotive sensors

Advanced safety systems are no longer reserved only for high-end automobiles. Nearly 93% of vehicles produced in the U.S. come with at least one ADAS feature – and automatic emergency braking is set to become standard across 99% of new cars in the United States by September.1

The shift is a result of the decreasing cost and size of sensors, such as TI mmWave radar sensors which integrate an entire radar system into a chip the size of a coin.

“Ten years ago, radar was predominantly used in military applications because of size, cost and complexity,” Miro said. “But today, radar is on the verge of becoming a standard component in the car.”

While the proliferation of affordable sensors opens up new applications, it also creates new challenges for ADAS engineers who need to design systems that bring together all the data streams and process them efficiently, while meeting tight affordability and power constraints.

A communication challenge

In a single-sensor ADAS system, pre-processing data for object detection takes place close to the sensor in order to use that information immediately. But sensor fusion requires that raw, high-resolution data be instantly transmitted to a central unit for processing to form a single, accurate model of the environment that will help the vehicle avoid a collision.

“With all the data coming in from these sensor nodes, the challenge is making sure all of it is synchronized so the vehicle can understand what’s happening around you and make critical decisions,” said Heather Babcock, general manager for FPD-Link™ products at our company. “In order to transmit synchronized data in real time, it’s important to have high-bandwidth, uncompressed transmission capability because compressing data introduces latencies.”

Our FPD-Link communications protocol, which was initially created for transmitting digital video streams from graphics processors to digital displays, is designed for transmitting large amounts of uncompressed data over several meters with simple, easily routable cables.

As ADAS technology extends to critical, time-sensitive applications – such as emergency braking, front-collision warning and avoidance, and blind-spot detection – combining data from multiple sensors enables reliable, real-time decisions for safer autonomous driving.

From reading road signs to keeping you inside lane markers, artificial-intelligence-assisted cameras are already making our vehicles smarter and safer. But what happens when the fog rolls in and your camera’s vision is as compromised as yours?

“A camera might be great for object recognition, but it’s not so good in bad weather or at night,” said Miro Adzan, general manager of advanced driver assistance systems (ADAS) at our company. “However, radar will continue to work in rain, snow or mist. Driver assistance systems need to incorporate a range of different sensors so the vehicle can take full advantage of the benefits of these different technologies.”

Using the strengths of different types of sensors is not just a matter of switching between them for different conditions or applications. Even in clear weather, a camera will be stronger for object details, but radar will measure an object’s distance more accurately.

As these systems extend to critical and time-sensitive applications – such as emergency braking, automatic parking, front-collision warning and avoidance, and blind spot detection – design engineers will need to fuse these different information sources into a single picture to deliver reliable real-time decisions.

“For automatic parking, you need to combine data from cameras, radar and sometimes ultrasound to give the vehicle an accurate sense of what’s going on around you,” said Curt Moore, general manager for Jacinto™ processors at our company. “None of these sensors would be accurate enough on their own, but by combining them, you can get a much more accurate picture of the space around you. This allows you to park in much tighter spaces without the risk of causing damage.”

The proliferation of automotive sensors

Advanced safety systems are no longer reserved only for high-end automobiles. Nearly 93% of vehicles produced in the U.S. come with at least one ADAS feature – and automatic emergency braking is set to become standard across 99% of new cars in the United States by September.1

The shift is a result of the decreasing cost and size of sensors, such as TI mmWave radar sensors which integrate an entire radar system into a chip the size of a coin.

“Ten years ago, radar was predominantly used in military applications because of size, cost and complexity,” Miro said. “But today, radar is on the verge of becoming a standard component in the car.”

While the proliferation of affordable sensors opens up new applications, it also creates new challenges for ADAS engineers who need to design systems that bring together all the data streams and process them efficiently, while meeting tight affordability and power constraints.

A communication challenge

In a single-sensor ADAS system, pre-processing data for object detection takes place close to the sensor in order to use that information immediately. But sensor fusion requires that raw, high-resolution data be instantly transmitted to a central unit for processing to form a single, accurate model of the environment that will help the vehicle avoid a collision.

Our FPD-Link communications protocol, which was initially created for transmitting digital video streams from graphics processors to digital displays, is designed for transmitting large amounts of uncompressed data over several meters with simple, easily routable cables.

“With all the data coming in from these sensor nodes, the challenge is making sure all of it is synchronized so the vehicle can understand what’s happening around you and make critical decisions,” said Heather Babcock, general manager for FPD-Link™ products at our company. “In order to transmit synchronized data in real time, it’s important to have high-bandwidth, uncompressed transmission capability because compressing data introduces latencies.”

Heather Badcock general manager for FPD-Link products.

Enabling more efficient decision-making

Once this data is at the central processor, integrating it into a unified model of the car’s surroundings typically requires computationally intensive signal processing and deep-learning algorithms – with a consequent increase in required power input and heat output.

The physical constraints of an automobile place tight limits on the size and weight of batteries and cooling infrastructure, so ADAS engineers need processors specifically designed to perform these tasks as efficiently as possible.

Our Jacinto processors combine dedicated digital signal processing (DSP) and matrix multiplication cores that operate with the lowest available power in the industry, even at temperatures of up to 125 degrees Celsius.

“There are tremendous advantages in integrating the DSP and the processor into one system on a chip,” Curt said. “Otherwise, each will need its own memory and power supply, driving up the system cost. The other advantage is the reduction in latency gained by integrating these operations into one chip.”

In addition to power-efficient processors, our automotive-qualified power management integrated circuits with functional safety features for sensor fusion, front cameras and domain controllers improve overall power efficiency and functionality within the vehicle.

Beyond the individual components, our entire ecosystem of ADAS products is created for seamless compatibility, allowing car manufacturers to select from a holistic portfolio that can be scaled to the demands and price points of their vehicles.

«We have all the pieces of the ADAS puzzle designed in a way that keeps the various challenges of the vehicle in mind,» Miro said. «That makes the system design easier for our customers.»


https://www.aaa.com/AAA/common/AAR/files/ADAS-Technology-Names-Research-Report.pdf

Varias tecnologías de película delgada pueden revolucionar los sistemas fotovoltaicos para dispositivos IoT
Película delgada a base de grafeno absorbe energía solar | Grafeno.co | El  Material del Futuro!

La industria fotovoltaica ha sido testigo de varias mejoras nuevas, abaratando los procesos de fabricación y aumentando la eficiencia de conversión de energía. Las células solares de película delgada se consideran el futuro de la tecnología solar, ya que presentan varias ventajas, como una mayor eficiencia en la recolección de energía en interiores, una fabricación más sencilla, menores costos y un menor impacto ecológico que las células fotovoltaicas (PV) convencionales.

Además, están surgiendo aplicaciones portátiles modernas, en las que las células solares convencionales no son adecuadas debido a su volumen, rigidez y peso. Los fotovoltaicos de película delgada son significativamente más livianos y adecuados para aplicaciones donde se requiere flexibilidad y menos peso.

Los módulos solares de película delgada se pueden integrar en detectores de humo, sensores de movimiento, pantallas electrónicas más pequeñas y otros dispositivos de factor de forma pequeño para eliminar las baterías o el cableado externo. Esta ventaja los hace más ecológicos. Estas celdas también son adecuadas para la construcción de fachadas o estructuras débiles. Además, se pueden hacer semitransparentes para su implementación en Windows.

Los analistas de IDTech predicen que el mercado de los fotovoltaicos de película delgada será testigo de una tasa de crecimiento anual compuesta (CAGR) del 10 % en los próximos diez años, gracias a tecnologías emergentes como los fotovoltaicos de perovskita.

Costos vs. Eficiencia y Durabilidad

Las células solares de película delgada están destinadas a la pequeña electrónica autoalimentada y al sector IoT (Internet de las cosas), que se espera que crezca significativamente en los próximos años. Para estas aplicaciones, la alta potencia y la alta eficiencia no son requisitos estrictos. Aunque la tecnología de película delgada siempre ha sido más barata pero menos eficiente que la tecnología solar convencional basada en silicio, los ingenieros creen que las células fotovoltaicas con una eficiencia del 10-15% podrían ser suficientes para operar la mayoría de los dispositivos electrónicos portátiles.

Otra característica que las películas delgadas intercambian por costos es la durabilidad. Muchos dispositivos están destinados a un uso a corto plazo, ya que se actualizan con modelos más nuevos, lo que reduce la necesidad de células solares de larga duración. Si los precios son más bajos y las celdas pueden demostrar un rendimiento viable, pueden reemplazar las baterías en dispositivos electrónicos portátiles.

Potenciales tecnologías de película delgada

Dos tecnologías principales de película delgada son el telururo de cadmio (CdTe) y el seleniuro de cobre, indio y galio (CIGS), y CdTe domina actualmente el mercado de película delgada. Ha habido preocupaciones sobre la escasez de telurio, pero se espera que el mercado se mantenga debido a las iniciativas de recuperación y reciclaje.

Las células solares CIGS se fabrican depositando una fina capa de solución CIGS sobre sustratos junto con los electrodos. La solución tiene un alto coeficiente de absorción y absorbe fuertemente la luz solar. Por lo tanto, las células requieren películas más delgadas de material activo. Aunque CIGS supera a la tecnología de polisilicio a nivel de celda, la eficiencia de su módulo es aún menor. Los analistas de mercado predicen que los PV de perovskita superarán la tecnología CIGS en los próximos años.

Las células fotovoltaicas de perovskita son fáciles de fabricar, no utilizan materiales tóxicos o de tierras raras y son adecuadas para aplicaciones de alta densidad de potencia en interiores y exteriores. Estas células solares utilizan un compuesto de estructura de perovskita como capa activa captadora de luz. Esta tecnología ha mostrado ganancias de eficiencia notables recientemente y ha demostrado ser una solución escalable.

Sin embargo, las células solares de perovskita son menos duraderas en comparación con la tecnología convencional basada en silicio. Sin embargo, siguen siendo adecuados para dispositivos electrónicos de baja potencia y algunos sistemas grandes para exteriores.

Otra tecnología menos duradera es la tecnología fotovoltaica orgánica, que utiliza moléculas orgánicas para absorber la luz. Su vida útil suele ser de cinco años, suficiente para el uso a corto plazo de la electrónica. Sin embargo, la tecnología de perovskita es superior debido a su fabricación más sencilla.

Las células solares sensibilizadas por colorante (DSSC) son otro competidor en este segmento para el cual, al igual que los fotovoltaicos orgánicos, el rango de aplicación se limita a la electrónica de uso a corto plazo debido a su corta vida útil. En los DSSC, se forma un semiconductor entre un ánodo fotosensibilizado que absorbe fotones y un electrolito para crear un sistema fotoquímico. Sin embargo, son sensibles a altas y bajas temperaturas. A altas temperaturas, el electrolito se expande, haciéndolo inutilizable. A bajas temperaturas, puede congelarse.

Algunas de estas tecnologías de película delgada ya han llegado al mercado. Hay auriculares inalámbricos alimentados por DSSC, y Adidas ha anunciado recientemente una asociación con un fabricante de DSSC. Las células solares orgánicas son útiles en sensores y contadores a pequeña escala. Además, los ingenieros y analistas creen que los fotovoltaicos de perovskita se unirán pronto a este floreciente mercado.


Fuente: www.eepower.com

El papel del subproceso digital y el gemelo digital en la transformación digital
Cortesía de Siemens.

Las organizaciones de fabricación de todo el mundo están invirtiendo significativamente en la transformación digital para mejorar el desarrollo de productos y plantas de fabricación. Las empresas que adoptan una visión holística del gemelo digital encontrarán un mayor éxito a medida que persiguen estas iniciativas en cada paso del ciclo de vida del producto.

Una definición mejorada de gemelo digital y el subproceso digital

Las organizaciones de fabricación saben que se estabilizan al día con la competencia requieren una evaluación y mejora constantes del proceso de desarrollo de productos. Como se informó en la Agenda estratégica del ejecutivo de ingeniería de Lifecycle Insights de 2020, el 25 % de los encuestados invirtió en esfuerzos de mejora el año pasado. Y un 38% adicional de los encuestados afirmó que planeaba invertir en mejoras el próximo año. Las mejoras son necesarias para mantener una ventaja competitiva frente a requisitos cada vez más complejos y plazos reducidos.

Si bien los conceptos de gemelo digital e hilo digital son relativamente nuevos en la industria, han ganado terreno rápidamente. Las iniciativas de mejora de muchas empresas se centran en el gemelo digital, un modelo virtual completo que define un producto o una planta. Otras organizaciones están priorizando el hilo digital, o la secuencia de actividades virtuales en los procesos comerciales que pueden mejorar y expandir el gemelo digital. Con muchas empresas investigando o buscando iniciativas de transformación digital (DX), muchas se preguntan qué papel juegan los gemelos digitales y los subprocesos digitales en esos esfuerzos.

En esta publicación, discutiremos los roles tanto del gemelo digital como del subproceso digital en mayores iniciativas de transformación digital.

El papel del gemelo digital en la transformación digital

Hace unos años, si le hubiera pedido a un miembro de la comunidad de fabricación que definiera el término «gemelo digital», podría haber obtenido una variedad de respuestas diferentes. Desde entonces, la definición de gemelo digital se ha solidificado en toda la industria.

El gemelo digital es una representación virtual de un producto o planta que existe antes de que se construya físicamente. Las organizaciones colaboran en torno a esta definición inequívoca del producto o planta. Los miembros de todos los departamentos funcionales pueden trabajar desde el mismo plano digital. Esta «única fuente de verdad» virtual facilita a los fabricantes el desarrollo de un diseño optimizado y la predicción del rendimiento del diseño, mucho antes de unir las piezas.

Tradicionalmente, el gemelo digital de un producto conectado inteligente probablemente incluiría el hardware mecánico, la electrónica, los sistemas de distribución eléctrica y el software integrado. Del mismo modo, un gemelo digital integral de una planta cubriría el diseño y la programación de herramientas para equipos de control numérico por computadora (CNC) y robótica, así como la planificación de celdas, líneas e instalaciones, y más. Estas definiciones forman una base sólida para la ingeniería y otros departamentos funcionales.

La profundización del gemelo digital mediante la incorporación de una mayor fidelidad y definiciones más detalladas desde el principio coloca a las organizaciones en una posición aún mejor para respaldar las mejoras.

Por ejemplo, un gemelo digital mejorado podría incluir una simulación muy detallada y precisa de cómo funcionaría un producto inteligente y conectado. Podría enviar datos de sensores a una plataforma de Internet de las cosas (IoT) para su análisis y una toma de decisiones más informada. En el caso del gemelo digital de una planta, una definición más mejorada podría simular a un trabajador ejecutando un proceso con asistencia robótica y evaluar la tensión resultante en el trabajador.

Cortesía de Siemens.

Los gemelos digitales más detallados pueden ayudar a las organizaciones de fabricación a obtener beneficios más tangibles de sus inversiones en transformación digital. Esos beneficios incluyen:

una colaboración más estrecha entre los departamentos funcionales, capacidades mejoradas de solución de problemas, una reducción de errores y retrasos innecesarios, y habilidades de toma de decisiones más informadas a lo largo de todo el ciclo de vida del desarrollo.

El papel del hilo digital en la transformación digital

El concepto de hilo digital es más nuevo que el de gemelo digital y, debido a su novedad, su definición todavía está evolucionando un poco. La definición que se acerca al consenso es que el hilo digital es la forma digital de los procesos de negocios individuales (actividades, tareas y decisiones) que mejoran y expanden el gemelo digital. Estos procesos también respaldan los esfuerzos de automatización, trazabilidad y estandarización.

Algunas organizaciones están convirtiendo procesos manuales, en papel o basados ​​en correo electrónico en procesos digitales automatizados que luego pueden ocupar su lugar en el hilo digital. Esto hace que el hilo digital sea más robusto. Los procesos que podrían convertirse incluyen actividades digitales de apoyo en algún tipo de sistema de registro, o tareas de automatización o enrutamiento basadas en restricciones y lógica definida. En estos ejemplos, un beneficio tangible es que las partes interesadas del proyecto pueden ser notificadas automáticamente sobre decisiones clave o cualquier actividad que pueda estar fuera de programa.

Una segunda forma en que los fabricantes aprovechan el subproceso digital para mejorar es mediante la automatización de procesos y la exposición de más información en otros sistemas comerciales, incluidos los que utilizan los socios proveedores. Dichos esfuerzos pueden abarcar múltiples tipos de sistemas, incluidas las plataformas de gestión del ciclo de vida del producto (PLM) y los sistemas de ejecución de fabricación (MES). Al compartir datos críticos entre diferentes sistemas comerciales, las organizaciones pueden mejorar la comunicación y la colaboración, respaldar decisiones clave e iniciar disparadores para activar procedimientos de contingencia.

Cortesía de Siemens.

La adopción del subproceso digital permite a una organización conectar fuentes dispares de información, datos que, tradicionalmente, han estado aislados y son difíciles de acceder. Cuando estos datos fluyen libremente, pueden respaldar los esfuerzos de automatización y mejora en cada paso del ciclo de vida del desarrollo del producto.

Comenzar y expandirse a su propio ritmo

Cuando se trata de adoptar el gemelo digital o el hilo digital, no existe un enfoque único para todos. De hecho, el éxito de las iniciativas de varios fabricantes muestra que los esfuerzos de transformación digital, respaldados por el gemelo digital o hilo digital, realmente pueden comenzar en cualquier lugar. Solo tiene que identificar un flujo de trabajo o proceso que se beneficiará de un cambio digital.

Al considerar cómo aprovechar dichas tecnologías en sus propios esfuerzos de mejora, la clave es perseguir objetivos alcanzables con esfuerzos a la escala adecuada. La transformación digital no es un proceso de la noche a la mañana. Una vez que identifique un lugar para comenzar, vale la pena comenzar poco a poco y construir sobre esas victorias. Con cada mejora exitosa, aprenderá cómo expandir mejor sus esfuerzos de transformación digital a otras áreas, aprovechando ese trabajo anterior para que pueda mejorar el gemelo digital o el hilo digital en otros pasos o fases del ciclo de vida del desarrollo del producto. La transformación digital, verdaderamente, es un esfuerzo acumulativo.

Pensando en grande

Las organizaciones de fabricación que buscan producir productos más complejos en plazos más cortos están aprovechando las iniciativas de transformación digital. Si bien no existe un único enfoque correcto para respaldar esas mejoras, un gemelo digital y subprocesos digitales pueden ayudar.

Las empresas que piensan de manera más amplia sobre cómo definir y crear este tipo de activos digitales cosecharán cada vez más los beneficios, disminuirán los posibles errores y problemas y mejorarán el diseño y las operaciones mientras trabajan para construir los productos y las plantas del mañana.


Fuente: www.siemens.com

Por: Chad Jackson 

Control de IoT mediante MCU de 8 bits

Los microcontroladores han recorrido un largo camino, con MCU de 8 bits que han demostrado una enorme resiliencia e innovaciones de aplicaciones a través de avances en memoria, consumo de energía, empaquetado y periféricos.

Pcb Dreamstime M 142599429 Promo

Lo que interesa saber:

  • Los MCU de 8 bits continúan prosperando a través de innovaciones continuas en varias áreas, incluida la memoria, el consumo de energía, el empaquetado y los periféricos independientes del núcleo (CIP).
  • Las nuevas generaciones de MCU incorporan una cantidad cada vez mayor de memoria, si es necesario, para facilitar la creciente necesidad de espacio de código.
  • Las MCU de 8 bits de hoy en día no se limitan solo a la recopilación de datos. Recopilan, procesan y transfieren datos en numerosas aplicaciones de IoT.

Desde la década de 1970, los microcontroladores (MCU) han desempeñado un papel destacado en el control de una variedad de productos automotrices, de consumo e industriales. En la actualidad, esta función se ha ampliado para incluir productos de Internet de las cosas (IoT) portátiles, inalámbricos y portátiles. Junto con IoT, la atención médica también ha experimentado un crecimiento masivo y la adopción de MCU de 8 bits en una variedad de aplicaciones.

La electrónica integrada con MCU de 8 bits requiere dispositivos que puedan competir en economías de escala (cientos de miles a veces millones de unidades por aplicación). Por ejemplo, en aplicaciones automotrices, las MCU de 8 bits controlan muchos subsistemas, como asientos y ventanas motorizados, manijas de puertas inteligentes e incluso sensores de presión de neumáticos. Esto significa que una diferencia de precio de unos pocos centavos es bastante importante.

Otro aspecto del costo de la aplicación, que a menudo se pasa por alto en la fase de diseño, es el costo de mantenimiento de millones de dispositivos. La confiabilidad y la durabilidad del dispositivo se pueden mejorar mediante la simplificación del código y el hardware en lugar de requerir redundancias de software.

Entre las razones por las que los MCU de 8 bits siguen prosperando y compitiendo a lo largo de los años está su capacidad para proporcionar valor al usuario. Esto se ha logrado mediante innovaciones continuas en varias áreas, pero especialmente en memoria, consumo de energía, empaque y periféricos independientes del núcleo (CIP).

Mejoras dramáticas de 8 bits

A medida que el enfoque actual en IoT ha crecido y ciudades enteras se están actualizando con dispositivos inteligentes, la capacidad de implementar inteligencia a escala se ha vuelto fundamental para muchas industrias. Estas actualizaciones incluyen alumbrado público inteligente y detectores de garajes de estacionamiento en cada lugar de estacionamiento, no solo en un solo mostrador en la entrada.

Se requieren ciertas características de los microcontroladores para crear un entorno capaz de IoT. Estos se pueden resumir en tres capacidades: la capacidad de recopilar datos, procesar esos datos y luego comunicar los datos a otros dispositivos en red.

En muchos casos, la recopilación, el procesamiento y la transferencia de datos pueden completarse mediante una MCU de 8 bits con un convertidor de analógico a digital (ADC) en el chip, mientras que el núcleo del dispositivo permanece en un modo de bajo consumo. . Por ejemplo, los sensores/indicadores en un estacionamiento inteligente, el alumbrado público conectado, la jardinería urbana automatizada y el monitoreo de plantas son todos candidatos para este enfoque. Cada milivatio de potencia multiplicado por miles realmente puede acumularse cuando un sistema funciona día y noche.

Los beneficios y el valor de los dispositivos más pequeños no solo se ven en su consumo de energía reducido, sino también en su factor de forma más pequeño. Esto les permite caber en un espacio limitado en productos IoT portátiles que funcionan con baterías.

La última generación de microcontroladores se está desarrollando con ese sentido de valor en mente. Utilizando nuevos procesos, lo que permite más memoria a bajo costo, estos microcontroladores tienen en cuenta la billetera del usuario al tiempo que brindan la funcionalidad requerida para la aplicación.

Memoria

Los microcontroladores de hace unos años son muy diferentes a los dispositivos que hay actualmente en el mercado. Esos dispositivos fueron revolucionarios para su época y cambiaron el panorama de los circuitos integrados. Debido a los pasos agigantados en el desarrollo de la memoria flash, los programas modernos han crecido para llenar el espacio disponible.

Con la tendencia hacia aplicaciones más complejas, los nuevos programas requieren más espacio/memoria. En consecuencia, las nuevas generaciones de MCU incluyen una cantidad cada vez mayor de memoria, si es necesario, para facilitar la creciente necesidad de espacio de código.

La memoria flash integrada puede durar años, como lo requieren y lo demuestran las pruebas automotrices extenuantes, soportando numerosos ciclos de escritura y borrado. Estas capacidades agregan otra dimensión a la propuesta de valor de los microcontroladores de 8 bits. Hoy en día, la cantidad de memoria en un microcontrolador de 8 bits puede variar desde 384 bits hasta 128 kB e incluso más para satisfacer un número cada vez mayor de aplicaciones.

El consumo de energía

Dado que muchas MCU de 8 bits se utilizan en aplicaciones alimentadas por batería, entre los cambios significativos que se han producido está la búsqueda del menor consumo de energía.

Por ejemplo, los MCU PIC eXtreme Low Power de nanoWatt XLP incluyen circuitos de supervisión del sistema especialmente diseñados para productos que funcionan con baterías. Por lo tanto, estos microcontroladores pueden ofrecer las corrientes más bajas de la industria para Run and Sleep, donde las aplicaciones de bajo consumo de energía pasan entre el 90 % y el 99 % de su tiempo. Los circuitos, como la desactivación del módulo periférico, eliminan por completo los periféricos del riel de alimentación y el árbol del reloj para que no haya fugas de energía.

Los beneficios de la tecnología nanoWatt XLP incluyen:

  • Corrientes de sleep por debajo de 20 nA
  • Reinicio de apagón hasta 45 nA
  • Temporizador de vigilancia hasta 220 nA
  • Reloj/calendario en tiempo real hasta 470 nA
  • Ejecute corrientes de hasta 50 μA/MHz
  • Capacidad analógica completa y de autoescritura hasta 1,8 V

Estas corrientes bajas ayudan a aumentar la duración de la batería para aplicaciones portátiles. Es posible ahorrar energía adicional a través de periféricos optimizados que se analizarán más adelante.

Encapsulado

Otra diferencia importante entre los MCU de 8 bits frente a los de 16 bits o 32 bits son los paquetes pequeños que permiten que los dispositivos de 8 pines encajen en los espacios más pequeños en productos inalámbricos/portátiles y vestibles conscientes del espacio. Los ejemplos incluyen un SOIC de 8 pines y un DFN de 8 pines. Un paquete popular es el paquete plano cuádruple muy delgado de 20 pines sin cables (VQFN) con su huella de 3 × 3 mm (Fig. 1). Si bien agregar más funciones puede requerir más conexiones y un paquete más grande, las MCU de 8 bits con capacidad suficiente pueden caber en espacios de placa que prohíben el uso de MCU de 16 o 32 bits.

Si la mayor capacidad de un microcontrolador de 8 bits requiere un área más grande y más conexiones debido a la mayor complejidad del sistema que proporciona, también se utilizan paquetes más grandes, que incluyen versiones PDIP y VQFN de 40 pines y TQFP de 44 pines.

1. Many new PIC and AVR product families have multiple package offerings as small as 3 × 3 mm, such as VQFN devices for space-constrained applications.

Periféricos independientes del núcleo

Separar ciertos aspectos del microcontrolador del núcleo central brinda autonomía del núcleo y varios beneficios, especialmente para diseños de bajo consumo y bajo costo. Estos periféricos independientes del núcleo tienen una mayor funcionalidad incorporada para reducir el uso de energía y el diseño modular. Esto ayuda a simplificar la implementación de interfaces táctiles, la acumulación de datos de sensores y el acondicionamiento, además de facilitar la implementación de software complejo en hardware y más.

Los CIP están diseñados con capacidades adicionales para manejar una variedad de tareas sin la necesidad de intervención de la unidad central de procesamiento (CPU) del microcontrolador. Este enfoque de diseño proporciona un medio preempaquetado para programar eventos basados ​​en periféricos. Por ejemplo, el sistema de eventos puede desencadenar eventos basados ​​en entrada/salida de propósito general (GPIO) o interrupción de programa en múltiples canales

Los CIP actualmente disponibles para microcontroladores PIC y AVR de 8 bits en la Figura 2 se muestran en código de color por categoría de periférico. Las ocho categorías y sus subcategorías abordan la mayor parte de la funcionalidad esperada en un controlador integrado rentable. Tenga en cuenta que los elementos verdes brindan posibilidades de reducción de energía adicionales a las mencionadas anteriormente.

2. Core-independent peripherals (CIPs) address a variety of 8-bit MCU design areas.

Los CIP ofrecen una mayor confiabilidad al reducir la cantidad de sobrecarga de código. Las funciones implementadas con estructuras de hardware evitan posibles conflictos de software. Además, la interconectividad periférica en el hardware reduce las conexiones externas, lo que aumenta la confiabilidad del sistema final. La mayor confiabilidad de los componentes reduce el costo durante la vida útil del proyecto.

Muchas de las nuevas familias de 8 bits brindan una plétora de opciones en memoria y número de pines. Esto hace posible completar el desarrollo en dispositivos más grandes y reducir la producción a dispositivos más pequeños cuando se optimiza el tamaño real del código.

Por ejemplo, en una variedad de paquetes para sensores sensibles al costo y aplicaciones de control en tiempo real, el conjunto de funciones simplificadas de la familia de microcontroladores PIC16F152XX incluye un ADC de 10 bits, selección de pin periférico (PPS), periféricos de comunicación digital y temporizadores. Las características de la memoria incluyen la partición de acceso a la memoria (MAP) para ayudar a los usuarios en aplicaciones de protección de datos y cargadores de arranque.

Herramientas de diseño para acelerar y simplificar el diseño

Con los avances en las herramientas de desarrollo, muchos procesos que tenían que codificarse de forma rígida se pueden simplificar y generar a través de las herramientas de diseño adecuadas, como MPLAB Code Configurator (MCC). Esto tiene varios beneficios, a saber, la reducción del tiempo necesario para desarrollar una aplicación. Además, se puede implementar código que es más compacto de lo que un diseñador podría haber desarrollado sin varias iteraciones de código o escribiendo el código desde cero en ensamblador. Por ejemplo, el kit de evaluación PIC16F15244 Curiosity Nano con capacidades completas de programación y depuración ofrece soporte completo para un nuevo diseño (Fig. 3).

3. The PIC16F15244 Curiosity Nano evaluation board and the two 100-mil, 1- × 15-pin header strips in the Curiosity Nano Evaluation Kit help simplify design.
PIC16F15244

Un futuro brillante (y rentable)

Los microcontroladores han recorrido un largo camino y las MCU de 8 bits continúan demostrando una gran resistencia e innovaciones de aplicaciones a través de avances en memoria, consumo de energía, empaque y periféricos. No solo tienen una memoria más grande que puede ser necesaria para aplicaciones complejas, sino también muchas vías diferentes para simplificar aplicaciones complejas. Esta simplificación puede materializarse en una reducción de dinero/tiempo invertido en desarrollar el proyecto, así como en menores costos cuando la MCU entra en producción.

Las MCU de 8 bits de hoy en día no se limitan solo a la recopilación de datos. Recopilan, procesan y transfieren datos en numerosas aplicaciones de IoT. Los nuevos productos de 8 bits han respondido a la creciente complejidad de las aplicaciones con tamaños de memoria mucho mayores y periféricos optimizados.

Sin embargo, los diseños de formato pequeño y sensibles al costo, que incluyen sensores y aplicaciones simples de control en tiempo real, pueden beneficiarse de conjuntos de características simplificadas como la de la familia PIC16F152xx de 8 bits. Con sus periféricos independientes del núcleo, tales MCU brindan una opción obvia para la mayoría de los diseñadores.


Fuente: www.electronicdesign.com

Por: Joshua Bowen

Las redes privadas móviles y la tecnología inalámbrica privada ofrecen capacidades superiores, pero los costes limitarán la demanda

Un nuevo informe de la empresa de análisis de la industria Transforma Insights concluye que el entusiasmo por la oportunidad de las redes privadas móviles y la tecnología inalámbrica privada necesita una revisión de la realidad. Aunque las capacidades son inestimables para algunos casos de uso, los altos costes harán que la mayoría de las organizaciones opten por alternativas más baratas.

Imagen: Transforma Insights.

Transforma Insights ha publicado hoy su informe «Mobile private network (MPN) state of the union«, que analiza la situación actual y las oportunidades asociadas a las redes celulares dedicadas no públicas 4G y 5G.

Ventajas demostrables de las redes privadas 4G y 5G

Según el informe, el uso de las tecnologías 4G y 5G ofrece ventajas demostrables en comparación con las tecnologías alternativas –como Wi-Fi 6– en términos de rendimiento, mayor fiabilidad, cobertura, flexibilidad de despliegue y seguridad, además de ser más capaces de soportar dispositivos en movimiento, servicios de voz e integración con la conectividad de área amplia. El uso de la 5G proporciona ventajas aún mayores, en forma sobre todo de comunicación ultrarresistente y de baja latencia.

El precio sigue siendo un obstáculo importante

Sin embargo, el informe también sirve para comprobar la realidad. El coste del despliegue de las redes celulares es muy elevado. El uso de tecnologías celulares suele ser del orden de diez veces más caro que las alternativas. Y esa prima es aún mayor cuando se trata de dispositivos 5G.

El autor del informe, Matt Hatton, ha comentado los resultados:

«La funcionalidad que ofrecen las tecnologías 4G, y en particular la 5G, es muy útil para determinados escenarios de despliegue. Si el cliente necesita garantías sobre determinados niveles de cobertura, capacidad, fiabilidad, seguridad y latencia, entre otras cosas, las redes celulares serán una gran opción. Pero el hecho es que es una opción cara, lo que significa que los despliegues sólo se producirán cuando haya una necesidad absolutamente demostrable y económicamente válida de esas capacidades. En la mayoría de los casos creemos que otras alternativas harán el trabajo»

Expectativas de 22.000 despliegues para 2030

Hoy, a pesar de que se habla de miles de despliegues de NMP en todo el mundo, la realidad es que hay entre 1.000 y 1.500 despliegues. La trayectoria futura, según el informe, es de unos 22.000 MPN desplegados en todo el mundo para 2030, dependiendo de cuál de los tres escenarios se desarrolle.

La mayoría de las implantaciones actuales se centran en los sectores de uso intensivo de activos, en concreto la minería/petróleo y gas, la fabricación y los servicios públicos. A pesar de que gran parte del marketing en torno a la MPN se centra en el 5G, la realidad es que la gran mayoría (más del 80%) son 4G.

Las alternativas a la 4G y la 5G dedicadas son inmaduras

El informe también examina mecanismos alternativos para ofrecer conectividad celular privada (o realmente pseudoprivada) sin desplegar redes privadas completas dedicadas. El 3GPP los define como red pública integrada no pública (PNI-NPN). Entre ellas se encuentran la fragmentación de la red y las opciones híbridas que implican una infraestructura dedicada pero mantienen la función del plano de control con la red pública. El informe concluye que la capacidad de ofrecer estas opciones es prácticamente inexistente en la actualidad y se ve obstaculizada por problemas operativos y comerciales. (Transforma Insights).


Fuente: Transforma Insights.

Dispositivo portátil de la Universidad de Stanford mide el tamaño cambiante de los tumores
Source: Stanford University
Source: Stanford University

Un equipo de ingenieros de la Universidad de Stanford ha desarrollado un dispositivo portátil para medir el tamaño de los tumores.

El dispositivo, denominado «Sensor autónomo flexible que mide tumores» o FAST, es un pequeño dispositivo autónomo que cuenta con sensores estirables y flexibles que se adhieren a la piel y miden el tamaño cambiante de los tumores.

Según sus desarrolladores, el dispositivo es sensible a una centésima de milímetro (10 micrómetros) y comunica los resultados en tiempo real a una aplicación de teléfono inteligente de forma inalámbrica.

Según los informes, el dispositivo no invasivo que funciona con baterías mide la regresión del tumor después del tratamiento con medicamentos a través de un sensor compuesto por un polímero similar a la piel flexible y estirable que presenta una capa incrustada de circuitos de oro.

Este sensor, que está conectado a una pequeña mochila electrónica, mide la tensión (estiramiento o contracción) de la membrana.

Los ingenieros explicaron que la capa de oro se recubre sobre la piel y al estirarse desarrolla pequeñas grietas que alteran la conductividad eléctrica del material. Estirar aún más el material aumenta el número de grietas, según los investigadores, lo que hará que la resistencia electrónica en el sensor aumente posteriormente. Mientras tanto, cuando el material se contrae, las grietas vuelven a entrar en contacto, mejorando así la conductividad. Tal propagación de grietas puede estar asociada con cambios en las dimensiones y el volumen, según los ingenieros.

Los investigadores sugieren que el nuevo dispositivo ofrece ventajas como la monitorización continua, autónoma y no invasiva del tumor y la detección temprana de cambios en la forma del tumor que son difíciles de determinar con otros métodos.

El estudio, Un sensor de tensión electrónico flexible para el seguimiento en tiempo real de la regresión tumoral aparece en la revista Science Advances.

Para ponerse en contacto con el autor de este artículo, envíe un correo electrónico a mdonlon@globalspec.com


Fuente: www.insights.globalspec.com

Por: Marie Donlon 

Tiny ML
Fuente: Medium

TinyML es una de las áreas de aprendizaje profundo de más rápido crecimiento. En pocas palabras, es un campo de estudio emergente que explora los tipos de modelos que puede ejecutar en dispositivos pequeños de bajo consumo como los microcontroladores.

TinyML se encuentra en la intersección de aplicaciones, algoritmos, hardware y software de ML incorporado. El objetivo es habilitar la inferencia de baja latencia en dispositivos de borde en dispositivos que normalmente consumen solo unos pocos milivatios de energía de la batería. En comparación, una CPU de escritorio consumiría alrededor de 100 vatios (¡miles de veces más!). Este consumo de energía extremadamente reducido permite que los dispositivos TinyML funcionen desenchufados con baterías y duren semanas, meses y posiblemente incluso años, todo mientras se ejecutan aplicaciones ML siempre activas en el borde/punto final.

Aunque la mayoría de nosotros somos nuevos en TinyML, puede que le sorprenda saber que TinyML ha servido en sistemas de producción de ML durante años. Es posible que ya haya experimentado los beneficios de TinyML cuando dice «OK Google» para activar un dispositivo Android. Eso está impulsado por un detector de palabras clave siempre activo y de bajo consumo.

¿Por qué TinyML?

Si consideramos que, según una previsión de ABI Research, para 2030 es probable que alrededor de 2.500 millones de dispositivos lleguen al mercado a través de técnicas TinyML, teniendo como principal beneficio la creación de dispositivos IoT inteligentes y, más que eso, popularizar a través de una posible reducción de costes.

La mayoría de los dispositivos IoT realizan una tarea específica. Reciben información a través de un sensor, realizan cálculos y envían datos o realizan una acción.
El enfoque habitual de IoT es recopilar datos y enviarlos a un servidor de registro centralizado, y luego puede utilizar el aprendizaje automático para concluir.
Pero, ¿por qué no hacemos que estos dispositivos sean inteligentes a nivel de sistema integrado? Podemos crear soluciones como señales de tráfico inteligentes basadas en la densidad del tráfico, enviar una alerta cuando su refrigerador se queda sin existencias o incluso predecir la lluvia en función de los datos meteorológicos.

El desafío con los sistemas integrados es que son diminutos. Y la mayoría de ellos funcionan con batería. Los modelos ML consumen mucha potencia de procesamiento, las herramientas de aprendizaje automático como Tensorflow no son adecuadas para crear modelos en dispositivos IoT.

Construcción de modelos en TinyML

En TinyML, se utiliza la misma arquitectura y enfoque de ML, pero en dispositivos más pequeños capaces de realizar diferentes funciones, desde responder comandos de audio hasta ejecutar acciones a través de interacciones químicas.

El más famoso es Tensorflow Lite. Con Tensorflow Lite, puede agrupar sus modelos de Tensorflow para ejecutarlos en sistemas integrados. Tensorflow Lite ofrece binarios pequeños capaces de ejecutarse en sistemas integrados de bajo consumo.

Tensorflow Lite: Tiny ML

Un ejemplo es el uso de TinyML en sensores ambientales. Imagine que el dispositivo está capacitado para identificar la temperatura y la calidad del gas en un bosque. Este dispositivo puede ser esencial para la evaluación de riesgos y la identificación de los principios de incendio.

La conexión a la red es una operación que consume energía. Con Tensorflow Lite, puede implementar modelos de aprendizaje automático sin necesidad de conectarse a Internet. Esto también resuelve los problemas de seguridad, ya que los sistemas integrados son relativamente más fáciles de explotar.

Ventajas de TinyML

  • Seguridad de los datos: Como no hay necesidad de transferir información a entornos externos, la privacidad de los datos está más garantizada. ‍
  • Ahorro de energía: la transferencia de información requiere una amplia infraestructura de servidores. Cuando no hay transmisión de datos, se ahorra energía y recursos, por lo tanto en costos.
    Sin dependencia de conexión: Si el dispositivo depende de Internet para funcionar, y se cae, será imposible enviar los datos al servidor. Intenta usar un asistente de voz y no responde porque está desconectado de Internet.
  • Latencia: la transferencia de datos lleva tiempo y, a menudo, genera demoras. Cuando no involucra este proceso, el resultado es instantáneo.
10 Considerations for Designing a Machine Vision System
Image collage
Refer to this checklist of prerequisites before taking on the task.

Machine vision systems serve a vast range of industries and markets. They are used in factories, laboratories, studios, hospitals and inspection stations all over the world—and even on other planets. But how do you design one?

When designing a machine vision system there are many factors that can affect the overall performance. Many of these elements are integral to the camera choice, but there are additional external factors that can have a significant impact on the final image. This article will explore 10 of these considerations and what to look out for when painting the full picture that makes up a vision system.

1. Environment

Images are captured in every corner of the world. In a corporate or residential building, it is common to see security systems, and while driving there can be toll booths with embedded systems and small board-level modules connected to aerial imaging drones.

The range of environments that require reliable imaging solutions is broad, and while these systems are often generalized as machine vision systems, it’s clear that imaging solutions extend well beyond factory floor applications.

The conditions a vision system operates within determine many of the specifications necessary to deliver the required image, including weather conditions such as direct sunlight, rain, snow, heat and other external factors that are outside our scope of control. However, a vision system can be designed with these in consideration. Factors such as additional light can be included in a system, or adequate housing to ensure the camera and its sensor are protected from harsh weather. In short, systems can be adapted to ensure that a camera always has a clear image.

2. Sensor

When deciding on a camera for a vision system, most of its performance resides with the image sensor. Understanding what a camera is capable of fundamentally comes down to the type of sensor being used. On the other hand, two different cameras with the same sensor are not necessarily going to output the same type of image. In fact, they most likely will have some noticeable differences. Therefore, looking at the rest of these considerations is quite important.

The format of the sensor will decide a lot about the matching optics and how the images will look. Formats abound, but some common ones include APS-C, 1.1-in., 1-in. and 2/3-in. When using a larger sensor size, a vision system can often benefit from more pixels, resulting in a higher resolution image. However, there are several other specifications that are equally important. Details such as full well capacity, quantum efficiency and shutter type all play a part in how the sensor can deal with various targets in unique situations.

Figure 1 Teledyne Lumenera Lt M4020 B
A Teledyne Lumenera Board-Level Camera with a 1.1-in. sensor.

3. Lens

After deciding on the internal aspects of a camera, a vision system needs some help focusing on a target that can only be accomplished with a lens. In machine vision systems the camera size can vary based on the application. With larger systems, a zoom lens may be required depending on the targeted image. With machine vision, many cameras are locked on a specific target area and take advantage of prime lenses with a fixed focal length.

Each lens has a specific mounting system based on the manufacturer and the sensor it will be attached to. Common lens mounts for machine vision include C-mount, CS-mount and M42-mount. Therefore, before choosing a lens, the first step is to review required sensor specifications.

The main specification for a lens is the focal length. As focal length decreases, the field of view (FoV) inversely increases. This means that as the area the lens can capture increases, the magnification of each element decreases. Other specifications are also valuable to consider, such as working distance and aperture.

Figure 2 Fo V Focal Length
A camera lens showing the difference in field of view based on the focal length.

4. Lighting

Arguably the most important piece of a vision system is the lighting. This is because no matter how sensitive a camera sensor is in low light, there is no substitute for the clarity obtained from a well-illuminated target. Lighting can also take many forms that can help reveal new information about a target.

Area lights are a more general-purpose solution for even distribution, so long as the target is a good distance from the source to prevent hot spots from occurring. Ring lights are useful when dealing with highly reflective surfaces since they are able to reduce reflections. Other lights include dome lights for machined metals and structured light for 3D object mapping; even introducing colored light can add details and increase contrast.

5. Filters

If there is excess unwanted light passing through the lens, it can reduce important detail. There are many kinds of filters that can be used to reduce and remove certain light. The two main kinds of color filters are dichroic and absorptive. The main difference between these is that dichroic filters are designed to reflect undesired wavelengths while absorptive filters absorb extra wavelengths to only transmit the ones required.

 Filtering out color is not the only use for filters. Neutral Density (ND) filters reduce the overall light levels, whereas polarizers remove polarized light, which reduces reflected light. Antireflective (AR) coatings help reduce reflection within the vision system. This is particularly useful for applications such as intelligent traffic systems (ITS) where a reduction in glare can increase the accuracy of optical character recognition (OCR) software.

6. Frame Rate

The speed of a camera can be measured in frames per second (fps). A camera with a higher frame rate can capture more images. This also affects each image that is captured due to the exposure time of each image being reduced as the frame rate increases. This results in less blur as the camera captures fast-moving targets such as objects on a conveyor belt. The drawback to short exposures is the lack of time the sensor is able to collect light during each shot. In these cases, a larger pixel size for the sensor often helps increase the overall brightness of each image.

7. Noise and Gain

When a high frame rate is a must and short exposure can not be avoided, the camera gain can potentially make up for the reduced brightness. The reason why gain cannot be the easy solution for all lighting challenges is because of the noise that it introduces. As the gain is increased, so is the noise which reduces the clarity of an image. The increase in gain allows for the camera to increase the sensor sensitivity. This means the vision system can take in a brighter image with less light but also reduce clarity from read noise and dark current noise.

8. Bit Depth and Dynamic Range

To accurately measure certain targets, a vision system needs to have high enough bit depth. The higher the bit depth, the higher the degree of variance between pixels. On the other hand, the dynamic range represents the ability of a camera to make out details from the brightest sections of the image to the darkest.

In outdoor applications more than 8-bit is rarely needed unless there is a need for high-precision measurement like photogrammetry. However, outdoor imaging can benefit greatly from a high dynamic range by capturing data in bright sunlight such as the sky, which is often overexposed in many images, and capturing detail in the shadows of a target. One possible solution could be to increase the gain or exposure time, but this would only result in getting detail in the shadows while reducing the data in already bright sections. A high dynamic range can ensure that there is clarity in each part of the image.

9. Software

Even with high-end hardware, the camera can only do what the software demands. The fundamental forms of software components are image acquisition and control, along with image processing software. The primary source of image data comes from image acquisition and control software which takes raw data from the camera and interprets it for the end-user. One of the common ways this is done is when a color camera takes an image, the pixel data is filtered through a physical Bayer filter, and then the software takes that data to construct a color image.

The next stage in the software tree has to do with what is done with the image data. This can involve a variety of tasks for machine vision such as inspection, analysis and editing for applications such as quality control when a target passes by the camera and needs to be tested.

10.  Interface

As camera technology continues to push forward and result in a vast amount of image data, it is important to develop methods for delivering that data. Camera interfaces have branched out in several ways to provide a range of options for any imaging application. The four most common solutions are USB3, GigE, CoaXpress (CXP) and Camera Link High Speed (CLHS). The main attributes to consider when looking into a vision system interface are the required bandwidth, synchronization, ease of deployment and cable length.

Figure 3 Genie Nano
A Teledyne DALSA Genie Nano with a GigE interface.

Putting it All Together

There are certainly many considerations involved when building a machine vision system, which is why many companies turn to systems integrators to help them with this task. System integrators, in turn, rely on high-performance OEM components that deliver the results. The key is to define what you need your vision system to do, and then identify the elements of the system that can produce the desired results.

Filip Szymanski, a technical content specialist for Teledyne Vision Solutions, is one of Teledyne’s imaging experts whose technology perspective comes from his degree in photonics and laser technology. He has years of experience in the machine vision industry working with cameras, sensors and embedded systems. 


Fuente: www.machinedesign.com

Por: Filip SzymanskiTeledyne