Traducir contenido

domingo, 13 de octubre de 2013

Empleo: humanos versus máquinas

Un estudio pronostica que la mitad de los empleos en EE.UU. desaparecerá en las dos próximas décadas. El desarrollo de la computación hace que el trabajo humano tienda a disminuir siendo sustituido por ordenadores y robots. ¿Estamos preparados para ello?
Robots trabajando
Robots descansando en el trabajo

El estudio, denominado El futuro del empleo: ¿cuánto son susceptibles de automatización los empleos? el cual Carmen Porteiro menciona en su artículo de ALTFoto ¿Serán sustituidos los fotógrafos por robots?, llega a conclusiones demoledoras: Analizadas 702 ocupaciones, los autores determinan que en las próximas dos décadas el 47% de los empleos de Estados Unidos están en peligro de desaparecer. Como corolario, el trabajo concluye que cuanto más bajo el salario y el nivel educativo, más riesgo de automatización.
El estudio utiliza descripciones de ocupaciones extraídas de portales de empleo así como de un Diccionario de Ocupaciones del Ministerio de Trabajo de Estados Unidos Usa una concienzuda metodología que consiste en examinar los avances en máquinas que aprenden y robots móviles y estimar la probabilidad de automatización de 702 profesiones concretas.
Según una frase muy citada del economista Keynes en 1933, se producirá un aumento del desempleo tecnológico debido a que
el descubrimiento de formas de economizar puestos de trabajo será más rápido que la velocidad a la que se crearán otros nuevos.
Aunque no se ha cumplido estrictamente desde entonces, en el siglo XXI parece que lleva camino de hacerse realidad. Según algunos estudios, la mitad de las empresas que han reducido empleos desde el comienzo de la crisis en 2008 lo han hecho mediante la automatización.
La automatización se da en ocupaciones altamente rutinarias que consisten en tareas que siguen procedimientos bien definidos que se pueden realizar por algoritmos sofisticados. Por ejemplo, los procesos de fabricación. Cuesta automatizar ocupaciones de bajo nivel en el sector servicios que requieren flexibilidad y adaptabilidad física. También cuesta automatizar empleos de alto nivel cognitivo.
Pero la innovación tecnológica continúa. Ya no se ciñe a procesos de fabricación rutinarios. En 2004 se consideraba que conducir un vehículo suponía un desafío tecnológico insuperable. 6 años después, Google anunció el primer coche autónomo sin conductor. Siguiendo esta línea, algunas tareas no rutinarias comienzan a ser automatizadas como por ejemplo la conducción de camiones y la escritura de textos legales.
Otra de las bases del estudio es la deslocalización de empleos. Según algunos cálculos, el 29% de los trabajos estadounidenses se moverán a otros países en dos décadas. Típicamente no se moverán los trabajos que deban realizarse en un lugar concreto y requieran comunicación cara a cara. Pero no deslocalizable no quiere decir no automatizable. Por ejemplo, los cajeros no se han deslocalizado, pero el autoservicio hace que se hayan automatizado. La automatización va más allá que la deslocalización.
Las ocupaciones se pueden dividir entre rutinarias y no rutinarias y a su vez entre cognitivas y manuales. Los ordenadores son muy eficientes en la ejecución de tareas rutinarias. Trabajos como cajero, contable o vendedor de telemárketing van disminuyendo. Pero las computadoras son cada vez más eficientes en las tareas no rutinarias.
En las tareas cognitivas no rutinarias el fenómeno de big data ha venido a cambiar el panorama. Aunque la intuición humana es un factor de éxito, el procesamiento masivo de ingentes cantidades de datos produce efectos semejantes o mejores. Además, los ordenadores no tienen prejuicios. Los sesgos cognitivos distorsionan profunda y constantemente los juicios y decisiones humanas.
Algunos casos de tareas no rutinarias de carácter cognitivo en las que los ordenadores están tomando posiciones son la detección de fraudes, el diagnóstico médico o e asesoramiento legal. La detección de fraude está casi completamente automatizada ya que requiere el análisis de cantidades enormes de datos y superar los prejuicios cognitivos. Del mismo modo, en el diagnóstico clínico, el ordenador Watson está empezando a ser una herramienta de segunda opinión. Y en muchas firmas de abogados, los ordenadores realizan búsquedas extensivas sobre bases de datos legales para encontrar precedentes en un determinado caso. El caudal de ejemplos de tareas cognitivas automatizables no para de crecer.
En el campo de las tareas manuales no rutinarias, la automatización tampoco se queda atrás. La proliferación de sensores pequeños y baratos hace que los robots hayan salido de los procesos de fabricación industriales y tengan cada vez más grados de libertad. Así, sitios relacionados con la logística como aeropuertos, almacenes y otros muchos, y minas o trabajos agrícolas, están operados por vehículos sin conductor y poco a poco estos llenarán nuestras calles empezando por espacios acotados. En un entorno de carreteras mojadas o nevadas, los sensores automáticos pueden ayudar a que el vehículo no tripulado sea mucho mejor que el conducido por humanos que además se cansan o se distraen.
Los robots domésticos van reclamando su espacio poco a poco. Según su precio cae y sus capacidades se expanden, los robots están comenzando a sustituir trabajo humano allí donde hasta ahora parecía protegido: los trabajos manuales de bajo nivel salarial.
Aún así, siguen existiendo trabajos relativamente protegidos contra la marea de la automatización. Aquellos en los que las tareas de percepción y manipulación siguen siendo complejas; trabajos de inteligencia creativa; y trabajos de inteligencia social.
El estudio predice que los empleos de gran riesgo están localizados en alguna áreas. Las ocupaciones de transporte y logística, una gran parte de trabajos administrativos y los trabajadores en entornos productivos están en riesgo. Pero también muchos trabajadores en el sector servicios donde nuevos robots están empezando a competir con ventaja.
Existe una correlación negativa entre los salarios y la educación por un lado y la probabilidad de automatización. Cuanto más bajo el salario y el nivel educativo, más probable es que el empleo se automatice.
Quizá los que menos sean susceptibles de automatizar sean los que requieren destrezas sociales. Los ordenadores no han comenzado a mostrar aún sus habilidades sociales.
Hace dos siglos el 70% de los trabajadores de EE.UU. trabajan en la agricultura. Hoy solo un 1% lo hace. Nuevas ocupaciones han ido surgiendo con la industrialización. Confiamos en que la actual sustitución de puestos de trabajo por máquinas en esta segunda ola de mecanización sea solo una parte de la ecuación y que se vayan generando nuevos empleos. Pero esto es solo voluntarismo; lo cierto es que las máquinas cada día realizan más trabajos sin que veamos una gran creación como contraparte.
Reflexionando sobre los resultados del estudio y sobre otros (cada vez más) semejantes, algunas preguntas me asaltan. ¿Existe preocupación pública por estos datos? ¿Se comenta en los medios de comunicación el futuro desempleo causado por la tecnología? ¿Qué dicen los políticos, pensadores o economistas al respecto? Todos parecen centrados en la actual crisis y su efecto sobre el empleo. Cuando salgamos de la crisis, nos dicen, el desempleo caerá. ¿Seguro? Yo diría que no, que el empleo escaseará cada vez más y que se trata de un problema de primer orden. Esto no supone el Apocalipsis, pero es un tema muy serio que nuestros líderes deberían abordar sin demora.

Qualcomm Zeroth, procesadores capaces de aprender como el cerebro humano

Qualcomm ha presentado una nueva generación de procesadores que abrazan el paradigma de las redes neuronales. Qualcomm Zeroth es el nombre de estos chips que basados en el funcionamiento del cerebro humano.

Las redes neuronales son un paradigma de la inteligencia artificial que versa sobre el proceso de autoaprendizaje de un sistema para su ajuste y posterior funcionamiento de una manera más o menos autónoma. Este paradigma toma como referencia los 100.000 millones de neuronas que tiene nuestro cerebro y su más de un billón de conexiones; un funcionamiento complejo que se intenta emular mediante sistemas digitales que son capaces, por ejemplo, de reconocer patrones visuales. Qualcomm ha dado un gran salto en el campo de las redes neuronales y las ha llevado al terreno de los procesadores con el lanzamiento de Qualcomm Zeroth.
Qualcomm Zeroth es el nombre de estos procesadores que llegan dispuestos a cambiar las cosas; unos chips desarrollados con la idea de ser integrados en sistemas de visión artificial, robots o dispositivos móviles y cuyo cometido es dotar a cualquier sistema de un "cerebro" capaz de aprender. Pues sí, si el principio básico de las redes neuronales es que son sistemas capaces de ajustarse gracias a un proceso de autoprendizaje, Qualcomm ha trasladado esta base a sus nuevos procesadores Qualcomm Zeroth y, por tanto, dotarán a los sistemas que los integren de una nueva capacidad que va algo más allá de ejecutar una rutina declarativa.
Qualcomm Zertoth no es una CPU, es un concepto nuevo; una nueva arquitectura y un nuevo tipo de chip denominado Neural Processing Unit, es decir, NPU. Si el modelo de referencia es el cerebro, estamos hablando de un dispositivo que está basado en el procesamiento en paralelo y que, por tanto, está basado en módulos (neuronas artificiales) que están conectadas entre sí.
El cambio conceptual no está, únicamente, en el nombre de estos chips sino que también lo está en el uso que se haga de los mismos. La programación, tal y como la conocemos, no existe. El procesador Qualcomm Zertoth no tiene como objetivo ofrecernos un entorno de desarrollo en el que escribir un código, la programación es "práctica" puesto que tendremos que enseñar a nuestro sistema a reaccionar ante una serie de estímulos que se toman como patrones de ajuste.
Con esta visión, la NPU tiene como objetivo procesar gran cantidad de información en paralelo, rompiendo así el paradigma clásico del procesamiento secuencial de la arquitectura de Von Neumann que, tradicionalmente, se ha seguido en los microprocesadores.

¿Cómo funcionan los procesadores Qualcomm Zeroth?

Qualcomm ha mostrado un vídeo en el que podemos apreciar cómo funcionan estos procesos de aprendizaje. El robot que vemos moverse por el laboratorio tiene como objetivo explorar el espacio en el que se encuentra y pasar, únicamente, por las baldosas pintadas en color blanco.
Gracias al feedback que se ofrece al robot, cuando pasa por las baldosas blancas se le indica con un "estímulo positivo" y, por tanto, se refuerza la pauta realizada para que se vuelva a repetir. Al cabo de un tiempo realizando distintos movimientos (y aportando el feedback correspondiente), el sistema es capaz de asumir cuál es la programación que debe seguir y, de esta forma, ajustarse para el funcionamiento esperado.
Salvando las distancias, el funcionamiento es parecido al entrenamiento de una mascota o el proceso de aprendizaje de un niño pequeño aunque, eso sí, el robot que vemos en el vídeo es un sistema mucho menos complejo.

¿Dónde veremos estos chips?

Si bien, con el tiempo, quizás veamos estos chips en sistemas de visión artificial o vehículos autónomos, Qualcomm está trabajando con un número muy reducido de partners. Una de las empresas con las que trabaja el fabricante de chips es Brain Corporation, una compañía especializada en algoritmos que emulan las redes neuronales y que, curiosamente, trabaja para DARPA (la agencia de investigación del Departamento de Defensa de Estados Unidos).
Qualcomm ha comentado que, seguramente, abran el uso de los procesadores Qualcomm Zeroth a otros centros de investigación, universidades y startups para dentro de un año y, con esa idea, trabajarán en kits de desarrollo que permitan explotar esta tecnología.
Hay que reconocer que, con los procesadores Qualcomm Zeroth, el fabricante de chips ha hecho algo muy grande.

jueves, 10 de octubre de 2013


Duolingo anuncia hoy el lanzamiento de una incubadora de idiomas que trabajará vía crowdsourcing. De esta manera, los usuarios mismos podrán crear cursos para la comunidad.

Duolingo

Duolingo es la plataforma de aprendizaje de idiomas más popular en las tiendas de aplicaciones tanto de Apple como de Google. Tiene 15 meses utilizando un sistema de recompensas para lograr que 10 millones de usuarios aprendan diferentes idiomas entre los que se encuentran elEspañol, Inglés y Francés. A pesar del éxito de Duolingo, una de las preguntas más hechas a su co-fundador Luis von Ahnradica en la adición de otros idiomas para la comunidad; ya que sólo cuenta con 6. Después de mucho tiempo de espera, el día de hoy se presenta un nuevo sistema que logrará ampliar la oferta de idiomas gracias a una incubadora que, además, funcionará bajo el concepto del crowdsourcing.

Esta incubadora de idiomas de Duolingo se llevará a cabo gracias a los propios miembros de la comunidad que, siendo expertos en algún idioma, ayudarán a crear el curso necesario para agregarlo a la plataforma. Esto sin perder lacalidad que ya ofrece el servicio. De esta manera, Duolingo logrará agregar cualquier idioma que sea solicitado incluyendo lenguajes ficticios como Dothraki y Klingon. Los idiomas más esperados dentro de Duolingo son el Chino, Ruso, Japonés y Árabe.

La plataforma utiliza un sistema de traducción de palabras o textos para funcionar y obtener ingresos, de esta manera, las personas que están utilizando la plataforma están haciendo estas traducciones y, gracias a esto, es que el servicio puede ser gratuito para todos. Como es de esperarse, los cursos de los nuevos idiomas en Duolingo que se generarán a partir de la incubadora de idiomas seguirán siendo gratuitos para cualquier persona.

La nueva visión de Duolingo permitirá acercar a la comunidad de expertos en idiomas y, además, de personas que hablan distintos idiomas de manera nativa para lograr crear los nuevos cursos. Incluso es una buena oportunidad parapreservar idiomas que podrían estar en peligro de extinción alrededor del mundo. Definitivamente, Duolingo ofrece una excelente manera de aprender idiomas y, ahora, una mejor manera de crear los cursos de los idiomas más demandados por la comunidad para hacerlos disponibles para todos. A ti, ¿qué idioma te gustaría ver en Duolingo próximamente?

Indigente en Nueva York aprendió lenguaje de programación en cuatro semanas

Un indigente de Nueva York, sin ninguna noción previa sobre informática, logró aprender en cuatro semanas lo suficiente sobre lenguaje de programación como para desarrollar la idea de una aplicación sobre el calentamiento global y el cambio climático, en un hecho que sorprendió a muchas personas en la red, que se manifestaron entre escépticos y admirados por este caso de aparente superación.


La historia, que la trae el diario ABC.es Tecnología, cuenta que es el resultado de una experiencia planificada por Patrick McConlogue, un programador que vive y trabaja en Nueva York, que cada mañana, camino al trabajo, se topaba con un "sin techo", a quien solo identifican con el nombre de "Leo".


Al parecer, McConlogue quiso poner en juego la validez del supuesto proverbio chino que dice: “Regala un pescado a un hombre y le darás alimento para un día, enséñale a pescar y le darás alimento para siempre”.


El pasado mes de agosto, McConlogue le propuso al indigente que escogiera entre un obsequio de 100 dólares o un paquete de opciones compuesto por tres libros de programación en Java, un portátil usado y clases diarias de una hora sobre lenguaje de programación. Leo eligió la segunda opción.


Al parecer, el compromiso de "Leo" por aprender y un talento natural, permitieron que en cuatro semanas de trabajo ya casi había desarrollado su primera aplicación, aunque no se revelan mayores detalles de la misma.


Esta historia ha causado impacto en las redes sociales donde los lectores dividen sus opiniones. "Es una historia que gratifica,  me daría gusto saber que más sigue pasando en la  vida de este hombre, los que dudan? creen que no hay gente muy inteligente en las calles? La hay en todos lados", escribió alguien que se firma como SRA.SKY, mientras que otra persona que se firma aquesadamm3 duda incluso de que la historia sea verídica: "Tiempo al tiempo. Un programador no se improvisa, solo la TV o el cine crean esos genios. Ni vale la pena investigar, esta es una historia falsa y exagerada", aseveró.

sábado, 21 de septiembre de 2013


Corelet: lenguaje de programación para chips neurosinápticos


En su camino para simular el cerebro y diseñar nuevos chips que rompan la arquitectura Von Neumann, IBM acaba de añadir una nueva pieza: Corelet, un lenguaje de programación que pretende ser tan exitoso como el FORTRAN
Jhayne (Flickr)
Jhayne (Flickr)
IBM lleva varios años embarcada en el proyecto SyNAPSE junto con la agencia DARPA. El objetivo es crear procesadores y sistemas cognitivos inspirados en la funcionalidad, el bajo consumo y el tamaño del cerebro de los mamíferos.Hace sesenta años, John Backus inventó el FORTRAN. Pronto se convirtió en el lenguaje de programación de alto nivel preferido por los desarrolladores. No solo había que inventar procesadores, había que crear un lenguaje de programación que los desarrolladores entendieran y con el que se sintieran cómodos para que crearan los auténticos elementos útiles de la computación: los programas o las aplicaciones, lo que utilizamos los usuarios y lo que da verdadero valor a los ordenadores. Corelet aspira a ser el nuevo FORTRAN de la computación cognitiva.
La primera pieza del puzzle es el procesador. Se trata de un chip neurosináptico basado en la arquitectura de las neuronas. El chip está construido con tecnología CMOS de 45nm y contiene computación (neuronas), memoria (sinapsis) y comunicaciones (axones). En concreto 256 neuronas, 1024 axones y 256x1024 sinapsis. El funcionamiento del chip es paralelo, modular, distribuido, tolerante a fallos, dirigido por eventos (no por un reloj) y escalable.
Este chip rompe con la arquitectura de procesadores vigente hasta hoy. John Von Neumann dio nombre a esta arquitectura en la que se separan procesador y memoria y programas y datos. Todos los procesadores (PCs, servidores, o smartphones) hasta la fecha son arquitectura Von Neumann. La dificultad es que solo podemos mejorar haciendo chips más rápidos, pequeños y costosos. Pero todo tiene un límite. El problema de sustituir la arquitectura Von Neumann es que nada de lo anterior vale. Ni una sola línea de código.
Arquitectura Corelet parea chip neurosináptico
No solo hay que construir un chip. Hay que diseñar una solución completa. La arquitectura de muchos chips neurosinápticos se denomina TrueNorth. Dado que no hay una producción masiva de chips, IBM diseñó una simulador llamado Compass que traslada el funcionamiento de dos mil millones de chips e una ordenador convencional (es un decir ya que trata de Sequoia, un superordenador de 1,5 millones de núcleos). Con esta simulación se comprobó el escalado del sistema (que cuantos más cores añades más rápido va, lo que no es trivial).
Y lo que hacía falta en el puzzle era el lenguaje de programación para que los desarrolladores puedan crear aplicaciones. Corelet es la respuesta. Se trata de todo un ecosistema: un lenguaje de programación orientado a objetos y una librería de módulos llamados corelets. Los corelets son como bloques de LEGO. Pequeños corelets realizan funciones simples. Luego se van combinando para crear corelets más complejos. De esta forma los programadores pueden crear corelets utilizando otros preexistentes.
¿Será Corelet el nuevo FORTRAN? Como suele decirse, la mejor manera de predecir el futuro es inventarlo.

Tal vez no haya vida en Marte, según los últimos hallazgos del Curiosity

Los últimos descubrimientos de la NASA, publicados en la revista Science, han demostrado que la concentración de metano sobre el planeta rojo es mucho menor de la esperada. Esto reduce mucho las posibilidades de que haya vida en Marte.
Vida en Marte
Durante este año de investigación, el robot Curiosity ha realizado diversas actividades para explorar la superficie de nuestro planeta vecino. Y es que tras confirmar la composición de la atmósfera marciana, formada principalmente por dióxido de carbono, faltaba por saber si los niveles de metano eran los que habían sido estimados con experimentos realizados en la Tierra.Las últimas noticias que nos trae el Curiosity no son nada alentadoras. Cuando muchos pensábamos que el robot de la NASA podría confirmar en algún punto de su trabajo la existencia de vida en Marte, parece que el último hallazgo descartaría esta posibilidad.
La presencia de metano es fundamental para confirmar o descartar la existencia de vida en Marte. Este gas es un claro indicador biológico en elplaneta Tierra, ya que es un subproducto de la actividad humana y ganadera, pero también demuestra la presencia de bacterias.
El trabajo realizado por el equipo de Christopher Webster, del Instituto Tecnológico de California y el Laboratorio de Propulsión a Chorro (JPL) de la NASA, que ha sido publicado ahora en la revista Science, descarta que los niveles de metano sean los estimados hasta el momento. Los hallazgos del Curiosity han detectado una sexta parte de la concentración esperada de este gas, lo que sin duda supone un duro revés para la investigación espacial.
A pesar de ello, no podemos descartar totalmente la existencia de vida en Marte. Quizás en el planeta rojo existan otros indicadores biológicos que pudieran demostrar en el futuro que sí estén presentes determinados organismos vivos sobre su superficie, por ahora desconocidos.
Sin embargo, como comentábamos antes, los resultados del equipo de Webster son un duro revés para la investigación llevada a cabo por la NASA. Y es que al contrario de lo que se predecía, el metano parece haber desaparecido sin dejar rastro. Según los cálculos previos de los científicos, este gas debería durar sobre la atmósfera marciana unos 200 años, cien años menos de lo que permanece en la Tierra.
Pero, literalmente, ha desaparecido. Una posible hipótesis a este extraño descubrimiento, que descartaría en buena medida las posibilidades de que hubiera vida en Marte, es que la zona donde trabaja el Curiosity no fuera óptima para la presencia de metano.
Por este motivo, los investigadores seguirán trabajando con el propósito de medir las concentraciones de metano en el planeta vecino, para así tratar de superar este duro revés para la NASA. Quién sabe, quizás en el futuro nuevos datos vuelvan a abrir nuevas posibilidades sobre la existencia de vida en Marte.

lunes, 9 de septiembre de 2013


Ventanas inteligentes con nanocristales permiten regular luz y calor


Un nuevo compuesto, desarrollado por investigadores del Laboratorio Nacional Lawrence Berkeley de Estados Unidos, hace posible unas ventanas inteligentes capaces de controlar la cantidad de luz y calor que penetra al interior.
Ventanas inteligentes
Todos los productos que nos rodean parecen destinados a convertirse en "inteligentes". Aunque, como hemos publicado recientemente, esto puede tener ciertasconsecuencias. Las llamadas ventanas inteligentes están avanzando en muchas direcciones, desde nuevos sistemas de eliminación de ruido a convertirse en pantallas táctiles, al más estilo Minority Report. En esta ocasión, la compañía Heliotrope Technologies ha mostrado el desarrollo de sus ventanas con nanocristales, capaces de regular la cantidad de calor que pasa a través de ellas.
Ya existen ventanas inteligentes que cambian de transparente a opaco, pero, en esta ocasión es posible controlar, independientemente, la cantidad de luz visible y luz infrarroja, la cual, es la encargada de producir calor. La tecnología que hay detrás de estas pantallas se ha publicado en la revista científicaNature. En dicha publicación se explica que los cristales constan de dos partes: un cristal compuesto por óxido de niobio y una capa delgada hecha de nanocristales de óxido de indio y estaño.