jueves, 28 de noviembre de 2019

¿Usas VNC para controlar tu PC de forma remota? Estás en peligro



Poder conectarnos de forma remota a nuestro ordenador y usarlo como si estuviéramos sentados delante de el es muy útil. Existen muchos programas que nos permiten hacer precisamente esto. Dos de los más conocidos con Escritorio Remoto, la opción que ofrece Microsoft para Windows, o Team Viewer, otra alternativa más completa, sencilla y profesional. Sin embargo, aunque son menos conocidas, existen otras alternativas que también nos permiten conectarnos de forma remota a los ordenadores para controlarlos como si estuviéramos sentados delante de el. Y una de las más populares y extendidas es VNC.

VNC, Virtual Network Computing, es un software libre basado en estructura cliente-servidor diseñado para conectarse a otros ordenadores a través de Internet, compartir la pantalla y poder utilizarlo como si estuviéramos sentados delante de el. Este software libre da forma a otros muchos programas, como LibVNC, TightVNC 1.X, TurboVNC y UltraVNC, por lo que los usuarios pueden elegir el que más les guste y el que mejor se adapte a sus necesidades.

La mayoría de los programas basados en VNC son gratuitos y además están disponibles para múltiples sistemas operativos, como Windows, macOS, Linux, iOS y Android. Sin embargo, también existen otras alternativas de pago, como RealVNC.

La seguridad cuando nos conectamos a un ordenador de forma remota debe ser algo vital, ya que estamos retransmitiendo la pantalla del PC, las pulsaciones de teclado y el movimiento del ratón. Sin embargo, aunque usemos una buena contraseña u otras medidas de seguridad para proteger nuestra conexión, no podemos hacer nada frente a los fallos de seguridad que se ocultan en el propio software.

SI USAS VNC SEGURO QUE ESTÁS EN PELIGRO

Kaspersky no solo se encarga de desarrollar su conocido antivirus. Esta empresa de seguridad también analiza el software más popular que podemos encontrar en la red de manera que se puedan descubrir posibles vulnerabilidades antes de que caigan en las manos de usuarios malintencionados.

Los programas VNC se dividen en dos partes. La primera de ellas el servidor, que debemos instalar en el ordenador que queremos controlar, y la segunda el cliente, que debemos usar en el ordenador desde el cual nos queremos conectar al cliente.

Mientras que los clientes parecen no tener problemas, según el estudio de Kaspersky se han encontrado graves fallos de seguridad en prácticamente todos los servidores basados en VNC. Estos fallos de seguridad son de todo tipo, y van desde la posibilidad de bloquear y cerrar el servidor hasta poder ejecutar código en los ordenadores de forma remota, recopilar los datos que viajan por la red e incluso tomar el control del servidor.

Se calcula que puede haber en torno a 600.000 servidores VNC conectados a Internet afectados por fallos de seguridad. Eso sin tener en cuenta los servidores que se ejecutan dentro de una LAN. Por ejemplo, VirtualBox utiliza este software por defecto para permitir conectarnos a las máquinas virtuales. E incluso Hyper-V, en Windows, también lo usa cuando virtualizamos Linux.

CÓMO PROTEGER NUESTROS SERVIDORES VNC

Muchos de los fallos de seguridad descubiertos por Kaspersky a día de hoy no han sido solucionados. Por ello, si estamos usando VNC para conectarnos de forma remota a otros ordenadores seguramente estemos poniendo en peligro nuestra seguridad.

Si no queremos tener problemas, debemos llevar a cabo algunos consejos básicos de seguridad:

  • Comprobar los dispositivos que se pueden conectar de forma remota al ordenador. Y si el servidor lo permite, crear una lista blanca, bloqueando por defecto los demás.

  • Si no nos vamos a conectar de momento de forma remota, podemos desactivar VNC.

  • Comprueba que se está utilizando la última versión de este software, tanto en el cliente como en el servidor.

  • Usa una contraseña segura para complicar todo lo posible el robo de sesión.

  • No usar servidores que no sean de confianza.

Y si dependemos sí o sí de una conexión remota y no queremos poner en peligro nuestra seguridad, os recomendamos optar por una alternativa. Si usamos Windows 10 Pro, Escritorio Remoto puede ser una buena opción a tener en cuenta. TeamViewer, en caso de no poder usar RDP, también protegerá las conexiones de los fallos de seguridad de VNC.

Fuente: SoftZone.es

miércoles, 13 de noviembre de 2019

Buscar trabajo usando la Inteligencia Artificial



Cada vez son más las empresas y organizaciones que apuestan por la utilización de herramientas de Inteligencia Artificial vinculadas con el aprendizaje automático basada en el análisis y modelado de datos

Los diferentes algoritmos en los que se basa la denominada Inteligencia Artificial (IA) tienen como objetivo mejorar la fabricación, abaratar los costes productivos, automatizar determinados procesos, realizar mantenimientos predictivos de máquinas, optimizar la seguridad de los trabajadores, lograr ahorros de consumo energético u ofrecer nuevos servicios a sus clientes. En este sentido cabe destacar que la aplicabilidad no está acotada a unos sectores concretos si no que al contrario el impacto de la IA crece en áreas tan diversas como la sanidad, el comercio, la industria, el marketing, las ciudades inteligentes o las finanzas.

La diversidad de estas posibles aplicaciones y oportunidades que se abren con la aplicación de estas tecnologías son las que han llevado al portal de empleo Trabajos.com, en colaboración con HispaVista Labs, a plantear su aplicación a la hora de mejorar los procesos internos del portal.

Cabe destacar que el proceso de transformación se ha ido realizado paulatinamente. Dicho proceso se inició con una serie de pruebas centradas en la creación de motores de recomendación que permitiese mejorar los ratios de conversión seleccionados para las pruebas. Los indicadores mostraron una mejoría en dichos indicadores notables siendo el más destacable de una mejora mayor del 100% en los resultados obtenidos.

Con estos resultados, se iniciaron otro tipo de acciones que incluyen Procesamiento de Lenguaje Natural y tratamiento de imágenes lo cual ha abierto una nueva vía para evolucionar el servicio de búsqueda de empleo a niveles que no se esperaban hace unos pocos años. Este hecho ha motivado que Trabajos.com emprenda un proceso de recolección de datos masivos orientados a mejorar y crear nuevos servicios de valor para sus clientes, como, por ejemplo, que para la recomendación de perfiles idóneos se tenga en cuenta la interacción que las empresas realizan durante los procesos de selección con los candidatos. De esta forma el algoritmo se alimenta de dicha información para afinar la citada recomendación de perfiles óptimos para el puesto demandado.

INTELIGENCIA ARTIFICIAL Y ANALÍTICA DE DATOS

En los últimos años, mucho se ha hablado de que los datos son el nuevo petróleo de la economía. De hecho, algunos expertos estiman que en un futuro próximo el valor de las empresas no se medirá en términos monetarios, sino en su capacidad para crear y tratar los datos que generen. Y es que casi todas las empresas, lo sepan o no, tienen datos valiosos: desde unas simples tablas de Excel, pasando por información de clientes procedente de correos electrónicos o interacciones en redes sociales, datos almacenados en CRMs, ERPs, los que proceden de dispositivos SCADA, PLCs, sensores en máquinas o los más actuales dispositivos vinculados con Internet de las Cosas (IoT). Incluso los datos de servicios externos pueden ser de gran relevancia.

Una de las claves a la hora de implementar procesos óptimos de 'machine learning' es disponer de información digitalizada y que todos los datos procedentes de diferentes entornos confluyan, ya que la importancia de la analítica de datos recae en la unión de la información. Incluso el dato más insignificante a simple vista puede tener gran relevancia si se observa junto al resto de la información.

A la hora de llevar a cabo un proceso de analítica de datos con inteligencia artificial es determinante el tratamiento de la información. No todos los datos que hemos captado serán válidos para ofrecer soluciones, por lo que es importante su filtrado, cribado y optimizado. La calidad de los datos con que alimentemos y entrenemos a la inteligencia artificial es una de las principales claves para su buen funcionamiento. Por eso, es importante que cualquier estrategia de 'machine learning' esté liderada por personas con experiencia en el tratamiento de datos, el uso de inteligencia artificial, y que junto a los conocedores de los procesos concretos de los que proceden esos datos, trabajen en la consecución del objetivo previamente establecido y consigan añadir VALOR al negocio. Cabe destacar que el éxito de cualquiera de estos proyectos, se consigue cuando existe buen entendimiento entre los gestores del negocio y los expertos en la algoritmia.

En la actualidad, siguiendo el modelo de la colaboración entre Trabajos.com e HispaVista Labs, los expertos recomiendan a las empresas o PYMEs que quieran desarrollar sus primeras experiencias con analítica de datos, que las implementen en pequeños procesos o áreas para que puedan detectar sus ventajas de forma más rápida y con unos costes más ajustados. Una vez comprobados sus beneficios, siempre se podrán poner en marcha nuevos proyectos de analítica en otros procesos.

Fuente: TicPymes.es

lunes, 11 de noviembre de 2019

La estrategia de EE.UU. para seguir liderando la IA



Whashington ha puesto un plan concertado de desarrollo en el sector público y el privado

EE.UU. quiere seguir siendo líder mundial en inteligencia artificial (IA). La tecnología no es nueva: nació en Estados Unidos en los años cincuenta y, en paralelo, se desarrollaron dos de sus principales acepciones: IA e IA Aumentada. Eran los tiempos de la Guerra Fría y, ante la población general, eran más importantes las bombas nucleares y la carrera espacial. En ambas parecían ganar los soviéticos, pero Kennedy prometió “poner un hombre en la luna antes del fin de la década” (los años sesenta) y la tendencia, obviamente, se invirtió, a favor de Estados Unidos, quien hizo varios viajes a la luna, hasta que la carrera espacial dejó de ser prioridad. Ahora vuelve a ser importante, así que Donald Trump ha creado el sexto brazo de las Fuerzas Armadas estadounidenses: la Fuerza Espacial.

La ventaja económica y tecnológica de EE.UU. sobre la URSS era abrumadora, pero los muchos espías del KGB viviendo en Estados Unidos hicieron creer a América que la realidad era la contraria.

La consecuencia fue fatal para la URSS, desaparecida en 1991: por miedo a Moscú, América pisó el acelerador en capitalismo y tecnología y la URSS se quedó atrás respecto a EEUU donde el sector tecnológico trabajaba para el Departamento de Defensa y aplicaciones comerciales de las tecnologías.

La desaparición de la URSS afectó mucho a los chinos que, con Deng Xiaping desarrollaron desde 1980 un sistema mixto de ideología comunista y capitalismo de Estado. En 2019, China ya es una amenaza para Occidente en nuevas tecnologías. En 2018 el Ejército Rojo hackeó el Gobierno estadounidense, sus 16 agencias de información y las 30 corporaciones tecnológicas más importantes del país. A la luz de estos acontecimientos, Norteamérica ha puesto en marcha un plan concertado de desarrollo e implantación de Inteligencia Artificial entre sector público y privado (11 de febrero de 2019, decreto ley del presidente Trump).

Dicho plan pretende impulsar el crecimiento de la economía de Estados Unidos, mejorar su seguridad económica y nacional, y mejorar la calidad de vida de las personas. EE.UU. es el líder mundial en investigación y desarrollo (I+D) y de desarrollo de IA.

El Gobierno Federal desempeña un papel importante para facilitar la investigación y el desarrollo de la IA, promover la confianza del pueblo estadounidense en el desarrollo y despliegue de tecnologías relacionadas con este área, y, lo que me parece más importante, capacitar a una fuerza laboral capaz de utilizar la inteligencia artificial en sus ocupaciones y proteger la base tecnológica estadounidense de los intentos de compra por parte de competidores como China y Rusia.

La política del Gobierno de los Estados Unidos es mantener y mejorar la posición de liderazgo científico, tecnológico y económico de los Estados Unidos en I+D y despliegue de la IA a través de una estrategia coordinada del Gobierno Federal, La Iniciativa de IA de los Estados Unidos, guiada por los siguientes principios:
  1. Estados Unidos debe impulsar avances tecnológicos en IA en todo el Gobierno Federal, los sectores empresariales y el mundo académico para promover el descubrimiento científico, la competitividad económica y la seguridad nacional.

  2. Debe impulsar el desarrollo de estándares técnicos apropiados y reducir las barreras para el despliegue de tecnologías de IA y permitir la creación de nuevas industrias relacionadas con la IA y la adopción de la IA por parte de los sectores económicos de actividad existentes, sea banca o distribución.

  3. Debe capacitar a las generaciones actuales y futuras de trabajadores estadounidenses con las habilidades para desarrollar y aplicar tecnologías de inteligencia artificial y prepararlos para la economía de hoy y los empleos del futuro.

  4. Debe fomentar la confianza del público y la confianza en las tecnologías de AI y proteger las libertades civiles, la privacidad y los valores estadounidenses.
El plan de IA afectará a todos los departamentos y agencias gubernamentales, con estos objetivos:
  1. Promover una inversión sostenida en I&D en IA en colaboración con el sector TIC, el mundo académico, socios internacionales y aliados para generar avances tecnológicos en IA y tecnologías relacionadas y para hacer una transición rápida de esos avances en capacidades que contribuyan a la economía y seguridad nacional.

  2. Mejorar el acceso a datos, modelos y recursos informáticos federales, al tiempo que se mantienen las protecciones de seguridad, privacidad y confidencialidad coherentes con las leyes.

  3. Reducir las barreras al uso de las tecnologías de inteligencia artificial para promover su aplicación innovadora al tiempo que protege la tecnología estadounidense, la seguridad económica y nacional, las libertades civiles, la privacidad y los valores estadounidenses.

  4. Capacitar a la próxima generación de investigadores y usuarios/trabajadores estadounidenses de la IA a través del aprendizaje; programas de habilidades; y educación en ciencia, tecnología, ingeniería y matemáticas (STEM), con énfasis en ciencias de la computación, para garantizar que los trabajadores estadounidenses, incluidos los trabajadores federales, puedan aprovechar al máximo las oportunidades de IA.

  5. Desarrollar e implementar un plan de acción, de acuerdo con el Memorándum Presidencial de Seguridad Nacional del 11 de febrero de 2019 para proteger la ventaja de los Estados Unidos en a inteligencia artificial y la tecnología son críticas para los intereses de la seguridad nacional y económica de Estados Unidos contra competidores estratégicos y adversarios extranjeros.
La iniciativa se coordinará a través del Comité Selecto de Inteligencia Artificial del Consejo Nacional de Ciencia y Tecnología.

Fuente: CincoDias.ElPais.com

jueves, 7 de noviembre de 2019

Inteligencia Artifical: Humanos construyendo el futuro



Mientras Daniel Graziadei, poeta alemán invitado a la Feria del Libro de Guayaquil 2019 escribía poemas en el pasillo, inspirado en las palabras que solicitaba al público presente, no pude dejar de observar a una niña que miraba con asombro que el escritor lo hacía utilizando una máquina de escribir Remington del siglo pasado. Esta imagen viene a mi mente cuando leo sobre Inteligencia Artificial (IA). De algún modo lo que hoy vemos como herramienta tecnológica que nos llevará al progreso, mañana podría convertirse en otra cosa, apenas reconocible para las próximas generaciones.

La IA se ha ido asimilando tanto en nuestra vida cotidiana que apenas notamos su presencia. Los futurólogos predicen que pronto la llevaremos incluso en el cuerpo. Antes de levantar la bandera roja que advierte sobre los peligros de su mal uso, creo importante describir una de sus múltiples taxonomías, tal vez la más sencilla de comprender. La IA se divide en dos ramas:

Una, la INTELIGENCIA ARTIFICIAL GENERAL (IAG), orientada hacia la creación tecnológica. Despierta el temor de que el hombre va a ser reemplazado por máquinas pensantes. Aunque todavía pertenece al terreno de la ciencia ficción, ya existen algunos ejemplares. El año pasado en Tama, uno de los 32 distritos de Tokio, el robot Michihito Matsuda se postuló para la alcaldía obteniendo el tercer lugar con 4.013 votos, quería ganar las elecciones para acabar con la corrupción y dar "oportunidades justas y equilibradas para todos". Detrás de esta IA están Tetsuzo Matsuda, vicepresidente del proveedor de servicios móviles Softbank, y Norio Murakami, exempleado de Google en Japón, quienes creen que el futuro de la política está en la IA.

Otra, la INTELIGENCIA ARTIFICIAL SIMPLE (IAS) o "Narrow AI", busca que las computadoras resuelvan problemas de ámbitos específicos mejor que nosotros. Un ejemplo de IA aplicada fue Deep Blue, la máquina que creó IBM invirtiendo millones de dólares y que logró vencer al mejor ajedrecista del mundo Garry Kasparov en 1997. Fue diseñada para analizar millones de jugadas posibles sobrepasando la capacidad humana. Hoy con el desarrollo de la investigación del juego de ajedrez en computadora existe el software Fritz que corre en cualquier soporte doméstico y cuesta muy poco. Deep Blue es ahora una pieza del Museo Smithsonian de Washington DC. Sin embargo, es el precedente de Watson, una IA con capacidad de responder preguntas formuladas en lenguaje natural, que forma parte del proyecto DeepQA. El objetivo es que Watson pueda interactuar de forma natural con humanos y logre superar la respuesta humana en diversos ámbitos.

La rama de IA simple abre un abanico de posibilidades de crecimiento exponencial para empresas: la habilidad de las máquinas para entender lenguaje natural (speech recognition), clasificar objetos (computer vision), traducciones de textos de un lenguaje a otro, bots que realizan de forma automática tareas repetitivas y que son muy útiles para los centros de atención al cliente, algoritmos que se crean a partir de rastros que dejamos en redes sociales para vendernos productos, etc.

Uno de los principales casos de uso de la IA simple es Machine Learning, método analítico que permite que un sistema por sí mismo descubra patrones, tendencias y relaciones en los datos, mejorando continuamente la respuesta en cada interacción. Servicios financieros, atención en salud, marketing, ventas, gobierno y transporte, se cuentan entre los sectores que más aprovechan esta innovación.

Un ejemplo reciente en nuestra región es G.E.N.I.A. (Gran Estrategia Nacional de Inteligencia Artificial), organización que sienta las bases institucionales para que los países latinoamericanos puedan convertirse en líderes en el aprovechamiento de la IA.

Yuval Noah Harari en su último libro "21 lecciones para el siglo XXI" afirma que la única constante es el cambio, "No podemos estar seguros de las cosas concretas, pero el propio cambio es la única certeza". Advierte que la humanidad tendrá que lidiar con máquinas súper inteligentes, cuerpos modificados, algoritmos que pueden manipular nuestras emociones con precisión, rápidos cataclismos climáticos causados por el hombre, cambiar de profesión cada década y más. Los cambios están sucediendo de forma acelerada y apenas podemos procesar las emociones que acarrean, porque nuestro cerebro no está diseñado para ello. De cara a este mundo abrumador que se está gestando, Harari resalta que la pregunta más urgente y complicada de responder será ¿quién soy?. Su respuesta es indispensable para evitar el inminente hackeo de nuestros cerebros y con él la pérdida de libertad, "si los algoritmos entienden mejor que tú lo que ocurre dentro de ti, la autoridad pasará a ellos". Prepararse para conocer mejor nuestro "sistema operativo" parece ser la clave: tener una mente flexible, equilibrio emocional, buscar la forma de sentirse cómodo con lo desconocido y ser resilientes.

Frente a este panorama, para que las empresas se mantengan será necesario que entiendan la dinámica del cambio y con ello tomar decisiones que permitan modelar mejor el futuro. La tecnología no es mala. Si se tiene objetivos claros, es muy probable que contribuya a realizarlos.

Fuente: Alexandra-Landazuri.com

miércoles, 6 de noviembre de 2019

Programar en COBOL hoy en día y el lenguaje del futuro



1. LA IMPORTANCIA DEL COBOL COMO LENGUAJE DE PROGRAMACIÓN

¿COBOL, lenguaje del futuro? Cuando la gente lea este título, pensará en el inglés como lenguaje del futuro, pero en este caso como ya habréis adivinado no me refiero a este tipo de idiomas, sino, tal y como ya hicimos en un post de Spartanhack, al lenguaje que se utiliza para programar.

Existen lenguajes de programación que se remontan a los años 50 como es el caso de COBOL o FORTRAN. Otros lenguajes como DELPHI, son más modernos, ya que datan de la época de los 70. Estos lenguajes fueron fundamentales, pero lo importante, es que lo siguen siendo en algunas áreas de nuestra vida a día de hoy.

Por ejemplo, los bancos continúan usando sistemas centrados en COBOL, con el que realizan sus operaciones —muchas de ellas muy importantes ya que manejan grandes sumas de dinero— y el peligro que entraña, es que cada vez existen menos personas que comprenden y manejan este lenguaje.

Para que lo entendamos mejor: ¿os imagináis hacer operaciones bancarias de extrema importancia en latín? ¿Cuánta gente sería capaz de entender esta lengua? Lo cierto es que muy pocos son los que podrían entenderlo, pero aun así son muchos más de los que pueden defenderse con COBOL y eso se debe a que en los colegios se sigue estudiando latín, pero no programación. ¿Veis esto lógico en pleno siglo XXI?

El lenguaje COBOL (acrónimo de COmmon Business-Oriented Language, Lenguaje Común Orientado a Negocios) fue creado en el año 1959 con el objetivo de crear un lenguaje universal que pudiera ser usado en cualquier ordenador (ya que en los años 60 existían modelos de ordenadores incompatibles entre sí), y que estuviera orientado principalmente a los negocios, es decir, a la llamada informática de gestión.

Seguro que muchos de vosotros habéis oído hablar de Bill Hinshaw. Este señor tiene ya 75 años y es el creador de COBOL Cowboys, una empresa integrada por un equipo de "jovencitos" que se encargan de ayudar a aquellas empresas y bancos que funcionan con este tipo de lenguaje y que ya casi nadie conoce.

Hinshaw empezó a programar allá por los años 60 y ahora, casi 50 años después le siguen llamando las empresas porque no hay gente joven que conozca este lenguaje. Por eso decidió crear su negocio, para poder hacer frente a toda la demanda de trabajo que le llega de las distintas empresas.

Su plantilla está compuesta por gente de su misma edad que estudiaron COBOL y, aunque deberían de estar jubilados, están al pie del cañón ayudando con sus conocimientos de programación. Eso sí, están ganando más de 100 dólares la hora por dar apoyo a estas empresas que dependen de COBOL y que no pueden cambiar por otro tipo de código debido al elevado coste que eso supondría.

COBOL es el 65% del código activo utilizado en la actualidad; y ejecuta el 85% de todas las transacciones comerciales. IBM afirma que 200 millones de líneas de código COBOL todavía están en uso hoy en día por varias industrias. COBOL es tan actual y moderno como otros productos de programación en el mercado. Miles de organizaciones están gastando millones en el desarrollo y mantenimiento de COBOL.

Precisamente IBM ha sido una empresa pionera en formar a jóvenes en este lenguaje ya que considera que, por el simple hecho de tratarse de un código con más de 50 años, no implica que sea malo, sino todo lo contrario ya que sigue funcionando y muy bien. Sin embargo, otros apuestan por ir realizando un cambio gradual para evitar el impacto y los riesgos de funcionar con un lenguaje que solo puede entender gente de más de 65 años.

2. COBOL Y OTROS LENGUAJES DE PROGRAMACIÓN

Ahora bien, si quieres aprender programación, seguro que todos los anuncios que te llegan te hablan de JavaScript, Java, C o Python. Estas opciones están muy bien, pero no dejes de lado COBOL u otros leguajes olvidados como DELPHI ya que la gente que controla estos códigos gana mucho dinero porque son muy pocos y están muy cotizados. Así que antes de decidirte por aprender un lenguaje u otro de código, infórmate bien. Aquí te ayudo a elegir, así que sigue leyendo... Te presento los lenguajes más desconocidos de la programación:



Delphi: Este lenguaje de programación fue desarrollado originalmente por Apple en 1986. Delphi es un entorno de desarrollo de software diseñado para la programación, pero con especial enfoque en la programación visual. En Delphi se utiliza como lenguaje de programación una versión moderna de Pascal llamada Object Pascal. Se usa para: programar software para Windows, para desarrollar bases de datos, servicios de sistema operativo y aplicaciones de consola entre otros.

MATLAB: La gran mayoría de científicos, así como ingenieros a lo largo y ancho del planeta, usan este lenguaje para crear productos nuevos. Se puede encontrar este tipo de lenguaje en los sistemas de seguridad de coches, visión artificial, procesamiento de señales, robótica, redes eléctricas inteligentes y sistemas inalámbricos. MATLAB también te ayuda a desarrollar algoritmos y te ayuda a realizar tareas de deep learning.

Swift: Es un lenguaje de programación creado por Apple para el desarrollo de aplicaciones en iOS, OS X, Apple TV y Watch OS. Tras la magnífica acogida que tuvo por parte de todos los desarrolladores, así como la evolución que ha ido experimentando con los años, la compañía decidió que pasaría a ser de código abierto, una noticia que trajo muchas alegrías.

Swift es un lenguaje rápido y eficaz que proporciona información en tiempo real y se integra a la perfección con código escrito en Objective-C. Los desarrolladores están encantados con el potencial de Swift, pero no son los únicos. Algunas de las universidades y centros académicos más prestigiosos enseñan a programar en Swift ya que es gratis, abierto y está disponible para un gran número de desarrolladores, profesores y estudiantes. Aplicaciones como: LinkedIn, Airbnb y Duolingo han sido creadas con este código.

Pascal: Se llama así por el famoso filósofo Blase Pascal, y fue el lenguaje primario de alto nivel utilizado para el desarrollo en el Apple Lisa, y en los primeros años del Macintosh. Todavía se utiliza para el desarrollo de aplicaciones Windows, pero también tiene la capacidad de compilación cruzada del mismo código para Mac, iOS y Android.

Perl: Fue creado por un ingeniero de la NASA en la década de los 80, y a los desarrolladores les encanta porque es muy potente y flexible. Se utiliza para llevar a cabo distintos tipos de tareas tales como: desarrollo web, programación en red y administración de sistemas. Además, adopta ciertas características de muchos otros lenguajes de programación. Fue acogido por su habilidad a la hora de procesar textos y por no poseer las limitaciones que sufrían otros lenguajes de script.

Objective-C: Este lenguaje se creó a finales de la década de los 80 y, probablemente, sea el más árido de todos. Se trata de un lenguaje enlazado, de ahí su dificultad para comprenderlo bien. Es el lenguaje más distinto en lo que a programación se refiere. Actualmente se usa como un lenguaje principal de programación para Mac OS X, iOS y GNUstep, además de Swift.

Groovy: es un lenguaje de programación orientado a objetos implementado sobre la plataforma Java, y fue diseñado para que los desarrolladores pudieran programar de forma más fácil y rápida.

Ruby: Este lenguaje de programación se creó hace 24 años, pero a los programadores les encanta porque es muy fácil de leer y escribir. Su eslogan oficial es: "El mejor amigo de un programador". Con esta frase se dice todo de este tipo de lenguaje.

Espero que este post resulte de utilidad a la hora de decidir qué lenguaje de programación se adapta mejor a vuestras necesidades. Si queréis que añada algún lenguaje más, dejad las sugerencias en los comentarios. Y si queréis aprender programación contactad con nosotros en Spartanhack. ¡Muchas gracias!

Fuente: AntonioSerranoAcitores.com

martes, 5 de noviembre de 2019

El Gobierno diseña un 'Gran Hermano' con los datos de los ciudadanos



Planea la creación del Instituto Nacional de Datos, organismo que analizaría la información de los españoles con Inteligencia Artificial

El Gobierno pretende crear un Instituto Nacional de Datos, una suerte de 'Gran Hermano' en el que se gestionará toda la información de los ciudadanos recogidos por ministerios y Administraciones Públicas (AAPP).

La propuesta se recoge dentro del plan estratégico de I+D+i en Inteligencia Artificial (IA), documento firmado tanto por el Gobierno como por el Ministerio de Ciencia, Innovación y Universidades, al que ha tenido acceso Vozpópuli.

La idea, según el documento, es "modelar, analizar, utilizar y explotar de forma segura y ética la ingente cantidad de datos abiertos y públicos generados por las AAPP". Se pretende obtener el máximo partido de estos datos, abiertos y agregados, mediante la utilización de técnicas de Inteligencia Artificial y Big Data. Se busca cruzar el dato y analizarlo a fondo para tomar decisiones en función de esos resultados.

  • Reino Unido estudia implantar un sistema de Big Data e Inteligencia Artificial que predeciría qué personas van a cometer un delito con arma de fuego o arma blanca

El Instituto Nacional de Datos contempla la creación de plataformas públicas y privadas. "Se pretenden establecer los cauces mediante los cuales las empresas privadas pueden o deben compartir parte de sus datos con la Administración Pública con el objetivo de ofrecer mejores servicios públicos y crear colaboraciones público-privadas en las que se compartan datos que permitan ofrecer servicios innovadores de valor añadido, siempre respetando las regulaciones de privacidad y protección de datos, en beneficio de la ciudadanía y del funcionamiento de las Administraciones Públicas", añade el documento.

"El tratamiento de Big Data por parte de las Administraciones Públicas es una gran oportunidad y un gran riesgo. Por un lado, contar con mejores datos y perfilados de individuos puede ayudar a las AAPP a ser más eficientes en la gestión. Por el otro, tenemos un perfilado de los ciudadanos que pueden verse sometidos a decisiones automatizadas sin contar con la información legal adecuada sobre cómo se han conseguido esos perfiles. Además, la ley establece de manera clara que todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente, con lo que existe una limitación respecto a lo que se haga posteriormente con los datos", explica Sergio Carrasco Mayans, abogado especializado en nuevas tecnologías de Fase Consulting.

EN REINO UNIDO

La policía de Reino Unido quiere utilizar Inteligencia Artificial para predecir sucesos violentos. Mediante un sistema bautizado como National Data Analytics Solution (NDAS) que combina IA y datos estadísticos, las fuerzas y cuerpos de seguridad ingleses pueden llegar a conocer el riesgo que existe de que un ciudadano del país cometa un crimen con arma blanca o de fuego.

El sistema está pensado también para vaticinar qué personas son más vulnerables a recibir un ataque de estas características. Se trata de una iniciativa que ha suscitado un gran debate ético. Los datos utilizados en este caso no son agregados (no se tratan en bloque, de forma anónima), sino personales.

"Los británicos son de lo más ambicioso en materia de innovación. Es uno de los grandes secretos de su éxito: asumen riesgos, se reinventan y buscan el impacto por encima del marketing. Entiendo que la seguridad física es demasiado importante como para no buscar la precisión máxima del modelo por encima de todo. Espero que nuestra policía también pueda usar información de forma desagregada", explica Sergio Álvarez-Teleña, fundador de SciTheWorld, compañía dedicada a desarrollar soluciones basadas en Inteligencia Artificial.

  • La idea es que todos los ministerios o Administraciones Públicas puedan acceder a los datos de todos los españoles

Otras policías del mundo trabajan los puntos calientes de los distritos mediante datos agregados, globales. Esto permite conocer cuáles son los lugares más proclives a la delincuencia y el tipo de crimen más común en cada zona. Esto permite destinar el número de agentes necesario a cada uno de esos puntos calientes y equiparlos con las armas pertinentes.

"La información agregada ayuda a distribuir recursos a nivel macro. De hecho, éstas suelen ser las primeras estrategias a poner en práctica porque no requieren datos muy complejos de conseguir. Para un sistema más parecido al británico se requieren medidas como el Plan de Datos Nacional. Estamos siendo más ambiciosos, y eso no sólo es bueno, es necesario", opina el fundador de SciTheWorld.

PLAN DE DATOS NACIONAL

En paralelo al Instituto Nacional de Datos se desarrollaría un Plan de Datos Nacional que implicaría la realización de actuaciones periódicas, como la forma en la que se gobiernan los datos, la estructura organizativa del ente y el desarrollo de procedimientos entre ministerios para facilitar que se compartan los datos.

La idea, según el documento, es que toda esa información del ciudadano esté disponible en todos los sitios, entendiendo por todos los sitios como el total de ministerios y Administraciones Públicas.

"Se trata de ofrecer un punto de contacto para aconsejar a las AAPP en las estrategias para extraer nuevo conocimiento de los datos mediante técnicas de Inteligencia Artificial; ofrecer una formación especializada en IA a los trabajadores públicos para poder sacar el máximo partido a los datos que disponen y así contribuir a la mejora de las Políticas Públicas".

Fuente: Vozpopuli.com

lunes, 4 de noviembre de 2019

El "Estado Profundo" da pautas al Pentágono para controlar la inteligencia artificial



El informe de la denominada Comisión de Innovación en Defensa se publica en medio de la creciente preocupación sobre los posibles riesgos del uso de inteligencia artificial en el ámbito militar

La Comisión de Innovación en Defensa (DIB, por sus siglas en inglés), organización que asesora al Pentágono compuesta por miembros de Google, Microsoft y Facebook, y que se encarga de la incorporación de innovaciones tecnológicas de Silicon Valley en el Ejército de EE.UU., ha publicado este jueves un conjunto de "directrices éticas" para el uso de la inteligencia artificial (IA) por parte del Departamento de Defensa.

Los principios del DIB tienen carácter de recomendaciones y no son legalmente vinculantes, por lo que recae en el Pentágono determinar si van a llevarse a la práctica y cómo debe ocurrir.

"Ahora es el momento, en esta etapa temprana del resurgimiento del interés en la IA, de mantener discusiones serias sobre las normas de desarrollo y el uso de la IA en un contexto militar, mucho antes de que haya un incidente", reza el documento.

Aunque el texto no fija límites estrictos, como esperarían todos aquellos que se oponen a la aplicación de IA en la esfera militar, sí que establece un conjunto de objetivos éticos que el Departamento de Defensa debería tener en cuenta a la hora de desarrollar nuevos sistemas con inteligencia militar.

En particular, los especialistas de la Junta barajan cinco principios clave: la utilización de IA en el Ejército de EE.UU. siempre debe ser responsable (y bajo control humano permanente), equitativa (para no causar daño no intencionado a las personas), rastreable (para que los expertos técnicos tengan una comprensión adecuada de la tecnología), fiable (para que la seguridad de los sistemas sea probada y garantizada) y gobernable (los dispositivos tienen que disponer de un mecanismo de desactivación por si se descubre que actúan de forma inadecuada).

¿CONVIENE LA IA AL ÁMBITO MILITAR?

Los programas de IA, que pueden aprender de datos y tomar decisiones sin intervención humana, se aplican activamente para el análisis de grandes cantidades de información. No obstante, su uso en un escenario de combate es percibido por algunos tecnólogos con escepticismo.

El año pasado, un grupo de 116 expertos en inteligencia artificial y robótica dirigieron a la ONU una petición —que también incluye la firma del fundador de SpaceX y Tesla— para prohibir el uso de las armas autónomas letales.

El Pentágono, por su parte, no comparte las preocupaciones sobre el riesgo de que este tipo de armas se convierta algún día en "la tercera revolución bélica", según se indica en la petición, y sigue experimentando con programas de IA en ámbitos como, por ejemplo, los combates con tanques, donde sus algoritmos permitirían ver cómo se conforma el campo de batalla y sugerirían cuál es la mejor manera de hacer frente al enemigo.

En 2018 el Departamento de Defensa de EE.UU. inauguró el llamado Centro Conjunto de Inteligencia Artificial, que se ocupa de la coordinación de las actividades relacionadas con IA en todo el departamento militar. Ese mismo año el organismo dio a conocer su primer plan estratégico en materia de IA, centrado en la aceleración de su uso con fines militares y en competir con otras naciones, "en particular China y Rusia".

Fuente: Actualidad.RT.com

miércoles, 30 de octubre de 2019

Firma invitada: Es el momento de aprender de China



China propone un futuro para el 'retail' muy distinto al que estamos viviendo en Occidente. Debemos analizar bien sus pasos y colaborar con ellos para extraer lecciones importantísimas.

Los directivos de los grandes distribuidores occidentales nos hemos acostumbrado a hablar, escribir, pensar y hasta leer únicamente sobre nosotros y nuestras experiencias más próximas en España, Europa y Estados Unidos. Nuestra obsesión principal es Amazon y asumimos que el futuro vendrá dictado más o menos por la multinacional de Seattle o por lo que ocurra en mercados como el británico o el americano. Es un error. Según las estimaciones de la consultora eMarketer, China concentra ahora mismo el 55% de las ventas mundiales del comercio electrónico y el 21% de las ventas totales del sector del retail. Estados Unidos, mientras tanto, representa el 22% de las ventas totales y casi el 17% de las que se canalizan mediante el comercio electrónico.

Antes, los directivos de la gran distribución acudíamos a ciudades como Nueva York a tomar nota de las nuevas tendencias y al gigante asiático a buscar fabricantes y proveedores. Ahora ningún líder de una multinacional del retail se puede permitir no visitar regiones chinas a la vanguardia tecnológica como Shenzhen o empresas como JD.com, Alibaba o Tencent, que es la propietaria de la aplicación de mensajería instantánea WeChat, que ofrece enormes posibilidades para pagar y consumir en las tiendas físicas y digitales. Amazon ya no puede obsesionarnos. Tiene que compartir el escenario y el protagonismo con otros grandes proyectos chinos que exigen nuestra atención... y más en un momento tan convulso como el que vivimos.

Navegamos una coyuntura excepcional. Tanto los retailers tradicionales como las grandes plataformas digitales han entendido que el siguiente campo de batalla se encuentra a pie de calle. El espacio físico no solo es un canal privilegiado para fidelizar al cliente, comprender sus deseos y descubrirle productos que no conocía. También puede acelerar las entregas de la última milla con envíos en pocas horas y reducir las devoluciones. Además, ninguna taquilla para recoger o devolver nuestros pedidos se puede comparar a la experiencia de hacer eso mismo en una tienda con un vendedor que nos orienta, nos pregunta por lo ocurrido y nos intenta dar una solución alternativa.

En Europa, los principales movimientos los estamos viendo con la fortísima transformación de los grandes retailers tradicionales, que aspiran a reducir el número de sus tiendas mientras aumentan el tamaño y la tecnología de las que sigan operando. Quieren ofrecer a sus clientes todas las ventajas del comercio electrónico en unos espacios físicos que los atrapen e impresionen con su cercanía y su calor. Inditex está cerrando cientos de establecimientos, por ejemplo en España, y abriendo otros un 40% más grandes que no solo integran totalmente su experiencia online y offline, sino que también consumen mucha menos energía y agua por metro cuadrado.

En China, el contexto es distinto aunque existan puntos de convergencia, porque los principales distribuidores nacionales provienen del comercio electrónico. Ellos realizan el proceso a la inversa: se están enfrentando al dificilísimo reto de crear y gestionar una red de tiendas físicas.

  • La agilidad de los gigantes

JD.com ha incluido en su plataforma digital parte del surtido de 20.000 comercios tradicionales, 175 hipermercados de Walmart entre ellos, para poder realizar entregas en 30 minutos de arroz, mantequilla, bebidas no alcohólicas y cerveza. En paralelo, se ha propuesto abrir decenas de miles de establecimientos a pie de calle en régimen de franquicia y se ha marcado 2023 como fecha límite para desplegar un millar de 7Fresh, un concepto de supermercado altamente automatizado y tecnológico.

Alibaba ha tomado posiciones en la cadena de tiendas de decoración Beijing Easy Home Furnishings, en el proveedor de tecnología para hoteles y distribuidores Shiji Retail Information Technology y en retailers especialistas en electrónica (Suning) y alimentación (Sun Art). Además, ha creado una joint venture tecnológica con una cadena de outlets, Bailian Group, que posee casi 5.000 tiendas en 25 provincias en el gigante asiático. El despliegue físico de Alibaba incluye unos 200 supermercados propios altamente tecnológicos (Hema) y la ambición de posicionarse con ellos, a largo plazo, en todas las ciudades chinas que rebasen el millón de habitantes. En Europa, Alibaba ya está presente con una alianza con El Corte Inglés, un marketplace similar al de Amazon o su primera tienda, de más de 700 metros cuadrados, en Madrid.

Tenemos mucho que aprender de las multinacionales chinas de la distribución no solo en nuestro país, sino también en Europa. Para empezar, han integrado completamente la experiencia de compra online y offline, mientras que, según un estudio de Prodware, esto solo puede decirse del 36% de los retailers españoles. Para continuar, Alibaba, JD.com y sus aliados siguen una estrategia particularmente astuta en la aplicación de la tecnología en sus puntos de venta. Están evitando el despilfarro y concentrándose esencialmente en lo que les proporciona un clarísimo retorno y añade valor a sus clientes, como ocurre con sus sistemas de self-checkout. Además de todo eso, ha emergido un 'cinturón' de proveedores tecnológicos que nuestros distribuidores deberían conocer para explorar distintas fórmulas de colaboración.

Naturalmente, esto no significa ni que los gigantes chinos no tengan nada que aprender de nosotros ni que sus experiencias sean fáciles de importar. Al fin y al cabo, nuestros retailers conocen mejor que nadie las posibilidades y los retos de las tiendas físicas, que son la clave de bóveda de la fidelización y la máxima satisfacción del cliente. Por otro lado, la sociedad china no es como la sociedad occidental, ni llegar a pie de calle desde el mundo online es igual que hacerlo desde la calle de enfrente, ni las regulaciones que protegen a los consumidores y sus datos son las mismas en la primera y la segunda potencia mundial, y mucho menos en Europa.

Lo que quiero decir es que China merece, por primera vez, la misma atención para un gran distribuidor europeo que Estados Unidos, que los ejemplos de Alibaba o JD.com deben ser casi tan importantes y paradigmáticos para nosotros como los de Amazon o Walmart y que se nos han acabado las excusas para no viajar con cierta frecuencia a China y buscar espacios de colaboración con los gigantes de su retail.

Fuente: Retina.ElPais.com

martes, 29 de octubre de 2019

6 formas en que puedes contribuir a Linux



Linux no es como los sistemas operativos comerciales. El nombre es tanto una abreviatura para una comunidad en particular como una pieza específica de código.

En el mundo del software libre, no está limitado a ser un consumidor de sus aplicaciones e interfaces favoritas. Puedes participar en su creación y no tienes que ser un desarrollador para hacerlo.

Los proyectos más grandes y más pequeños por igual pueden usar una mano amiga. Aquí hay formas de involucrarse y marcar la diferencia.

1. PROPORCIONAR COMENTARIOS

Los proyectos de software libre no tratan a los usuarios como consumidores, por lo que no pueden controlar las ventas. La mayoría tampoco intenta rastrear su comportamiento.

Por lo tanto, los desarrolladores no saben qué quieren los usuarios a menos que reciban comentarios. Puedes ayudar mucho con solo hablar y ayudar a los proyectos a establecer un sentido de dirección.

Si bien las redes sociales son una forma de ser escuchados, ese entorno está lleno de ruido. Muchos proyectos establecen sus propias comunidades. Purism, por ejemplo, tiene un foro para las personas que compran sus productos o usan PureOS.

Cuando la compañía estaba decidiendo si cambiar de un modelo de lanzamiento continuo a versiones estables con soporte más largo, preguntó a la gente en los foros de la comunidad de Purism. En última instancia, la compañía llegó a una versión estable con una opción de lanzamiento continuo para aquellos que desean un software más nuevo.

Busca las opciones disponibles para tu proyecto de elección. A veces esto es un foro. Otras veces es un grupo de chat en IRC o Telegram. Tal vez es una página de GitLab. Si todo lo demás falla, busca una dirección de correo electrónico.

2. RESPONDER PREGUNTAS A NUEVOS USUARIOS

Cuando las personas cambian a Linux por primera vez, a menudo no tienen a nadie, ni a ningún lugar al que puedan acudir en busca de ayuda en persona. En cambio, los motores de búsqueda son su mesa de ayuda.

Estos motores de búsqueda apuntan a foros junto con tableros de preguntas y respuestas. Uno de los ejemplos más destacados es Ask Ubuntu, al que la gente recurre con preguntas concretas y específicas.

Tales ubicaciones pueden ser inmensos recursos, pero eso solo si personas con conocimientos se registran y se toman el tiempo para ayudar a otros.

PUEDES SER ESA PERSONA

Cuando participe en varios foros de discusión de la comunidad, asegúrate de buscar el código de conducta. Tu comportamiento no solo se refleja en ti. Se refleja en toda la comunidad y realmente puedes alejar a los nuevos usuarios de un proyecto.

3. ESCRIBIR DOCUMENTACIÓN

Si bien es genial que los usuarios se ayuden entre sí, nada reemplaza a tener documentación oficial fácil de leer. Dichas guías pueden decirte cómo los desarrolladores tienen la intención de que uses el software que te han proporcionado, cómo superar los obstáculos y de qué errores son conscientes.

La documentación rara vez se destaca, pero puedes hacer o deshacer tu experiencia con una distribución de Linux dada. Muchas personas aman Arch Linux en parte debido a la gran profundidad y utilidad de ArchWiki.

A menudo puedes recurrir a ArchWiki para obtener ayuda, incluso si nunca has instalado Arch. Muchas instrucciones también funcionan para otras distribuciones.

Hablando de Arch, EndeavourOS es un proyecto joven que continúa el legado de Antergos, una distribución basada en Arch Linux que es más fácil y rápida de poner en funcionamiento.

Con tanto que tiene que suceder para comenzar una nueva distribución, el equipo podría usar la ayuda para documentar lo que los usuarios necesitan saber.

4. DISEÑAR ICONOS PARA TU SISTEMA O APLICACIÓN FAVORITA

El diseño importa. Cada pocos años, los principales entornos de escritorio de Linux renuevan sus temas de iconos de alguna forma o moda. Por lo general, los diseñadores hacen que los íconos sean más distintos, más planos (para que coincidan con las tendencias de diseño), más simples (para un cumplimiento más fácil) o todo lo anterior.

NO IMPORTA EL TAMAÑO DE UN PROYECTO, PUEDEN USAR TU AYUDA

GNOME, por ejemplo, cambió su tema de icono en la versión 3.32. Una motivación importante para la renovación fue hacer que los nuevos íconos sean más fáciles de crear. Algunas aplicaciones, como gThumb, aún no tienen un ícono actualizado. Ahí es donde puedes intervenir.

elementaryOS ha tenido un aspecto relativamente consistente desde su inicio, aunque sus temas no han estado exentos de ajustes. Aún así, con cada aspecto del escritorio elemental que ofrece su propio carácter distintivo, aún quedan pequeños iconos de sistema e interfaz que todavía necesitan un cambio.

5. PROBAR EL NUEVO SOFTWARE

Los desarrolladores necesitan que los usuarios prueben las últimas versiones de sus programas. Esto es útil con la versión estable actual, y es especialmente útil con el software que aún se encuentra en las etapas previas al lanzamiento.

Los desarrolladores de software libre generalmente trabajan solos o en pequeños equipos remotos. No tienen acceso a varios tipos de hardware y no pueden probar todas las diferentes configuraciones de escritorio de Linux que existen.

Al probar las aplicaciones, les das a estos desarrolladores una idea de cómo se ejecutan sus aplicaciones tanto en su hardware como en la configuración de escritorio elegida (distribución de Linux / entorno de escritorio / servidor de visualización / etc.).

Por supuesto, los desarrolladores solo obtienen esta información si los contactas. Por lo tanto, presenta informes de errores y recuerda ser cortés cuando lo hagas.

6. TRADUCIR APLICACIONES O MEJORAR LA ACCESIBILIDAD

Si hay una función con la que prácticamente cualquier proyecto puede usar la ayuda, es la traducción. Eso es porque incluso si un equipo ya tiene traductores capaces a bordo, no hay forma de que hablen todos los idiomas.

Pocos desarrolladores tendrían problemas para que tu pases tiempo haciendo que el software sea más accesible para las personas donde vives.

Esto no solo se refiere al idioma. Los desarrolladores también necesitan ayuda para que su software sea más accesible para las personas que tienen más dificultades para ver o escuchar.

Algunas aplicaciones simplemente no serán utilizables bajo ciertas circunstancias, pero en otros casos, un ajuste o dos pueden hacer una gran diferencia.

¿LISTO PARA AYUDAR CON EL DESARROLLO DE LINUX?

¡Excelente! Ahora actuemos sobre esa emoción. Cada proyecto de software libre tiene su propia forma preferida de comunicación y diferentes métodos para involucrarte, por lo que puedes comenzar yendo a la página web de tu distribución, aplicación, tema o componente y buscando instrucciones sobre cómo contribuir.

El sistema operativo elementaryOS ofrece algunas de las pautas más detalladas que encontrarás en una distribución de Linux, pero la mayoría de las que han existido por un tiempo brindan instrucciones sobre cómo ayudar.

Lo mismo es cierto para las aplicaciones. El Proyecto GIMP coloca una opción de menú en la parte superior de su página de inicio que lleva a una lista de lo que puedes hacer.

Fuente: 1000TipsInformaticos.com

lunes, 28 de octubre de 2019

Las máquinas serán capaces de lograr lo que en un millón de años nosotros no hemos logrado: entender el mundo



Como cualquier otra ideología, las concepciones que rodean al mito moderno de la "inteligencia artificial" tienen un barniz que va mucho más allá de la mayor o menor veracidad de sus postulados. Se trata de auténticas tonterías expresadas por los mejores portavoces de "la ciencia".

Es evidente que la humanidad no es capaz de entender el mundo en el que vivimos, una tarea que en el futuro llevará a cabo esa "inteligencia artificial" gracias a las enormes cantidades de datos que se producen cada día (el no menos famoso "big data").

En el futuro a la humanidad pretenderán imponerle esa "comprensión del mundo" como un "dato objetivo" (y también "neutral") porque lo ha producido una máquina capaz de tomar decisiones de manera "inteligente", algo que el ser humano no ha sido capaz de producir en un millón de años de evolución.

En otras palabras, los mequetrefes de siempre nos quieren hacer creer que nosotros no somos lo suficientemente inteligentes como para "entender el mundo" pero sí para fabricar máquinas que lo hagan en nuestro lugar, sobre todo los militares, que siempre han dado muestras de "inteligencia".

Las máquinas harán lo que nosotros no hacemos, cosas tan increíbles como leer libros, incluidos los libros de cocina, que lo más probable es que estén escritos en idiomas diferentes del inglés, por lo que deberán ser traducidos "automáticamente". Lo mismo ocurrirá con las emisiones de televisión, radio, diccionarios, prensa, internet, etc.

Como siempre, este tipo de proyectos los financia el Pentágono y su "brazo seudocientífico" DARPA. Para ello el ejército estadounidense tiene que extender sus redes de vigilancia mundiales, capaces de recopilar ingentes cantidades de datos.

Así lo anunciaron el 4 de enero y las predicciones las formularán por el módico precio de 2.000 millones de dólares. Lo mismo que las batallas, estos proyectos llevan esos típicos nombres militares pintores, en este caso "Programa Kairos" (Knowledge-directed Artificial Intelligence Reasoning Over Schemas) que es, fundamentalmente, un mecanismo de espionaje y vigilancia masivas.

"Una rápida comprensión de los acontecimientos mundiales es crucial para la seguridad nacional", es otra de las tonterías que dice DARPA en su sitio web y entre los "acontecimientos" que interesan al Pentágono están los meteorológicos y climáticos (como no podía ser de otra manera). "Los cambios significativos que afectan al medio ambiente o a la sociedad pueden tener consecuencias significativas en sí mismos, o pueden formar parte de relaciones causales que generan mayores impactos", dicen.

Los demás países del mundo imitan al Pentágono pero con mucho menos derroche de dinero. El 8 de enero Francia dedicará a la "inteligencia artificial" su nuevo superordenador, un artilugio que ha costado 25 millones de euros.

El 10 de enero la Unión Europea anunció que invertirá 20 millones de euros en desarrollar una plataforma de "inteligencia artificial" denominada AI4EU que reunirá a 79 socios de 21 países diferentes.

En épocas de duros recortes presupuestarios, hay terrenos en los que el dinero público no falta: guerra y represión. Cuando en una partida no hay recortes, no cabe duda: es indicativo de que forma parte de la guerra o de la represión.

Cuando el dinero rebosa, ocurre algo muy curioso en la investigación científica, por estúpidas que sean las pretensiones de sus mentores: nunca encuentran lo que buscan, pero algo siempre aparece. De otra manera, ¿cómo justifican el derroche?

Fuente: MovimientoPoliticoDeResistencia.blogspot.com

viernes, 25 de octubre de 2019

Richard Stallman: "Los móviles espían y transmiten nuestras conversaciones, incluso apagados"



Richard Stallman es una leyenda: creó el primer sistema operativo abierto e impulsó el 'copyleft'. Cree que los teléfonos inteligentes nos han hecho retroceder 10 años en términos de privacidad

Nos cita en el piso de unos amigos de Madrid. El padre del software libre es un viajero empedernido: difunde los principios de su movimiento allá donde le llaman. Unos días antes de la entrevista, Richard Stallman (Nueva York, 1953) participó en el Foro de la Cultura de Burgos y retomará su gira europea tras dar una conferencia en Valencia. Nos recibe con su característica melena despeinada y con una de sus bromas marca de la casa: "te quiero", espeta en su trabajado español con acento gringo, lanzando una mirada a su humeante taza de té en cuanto detecta una cara de desconcierto en el interlocutor. "Ahora te quiero más", nos dirá cuando la vaya a rellenar.

Su peculiar sentido del humor, que cultiva en los seis o siete idiomas en los que se maneja, reviste el encuentro de mucha naturalidad. Parece como si él mismo quisiera bajarse del pedestal en el que le ha colocado la comunidad de programadores. Para ese colectivo, es una leyenda viva. Stallman es el padre del proyecto GNU, en el que se engloba el primer sistema operativo libre, que vio la luz en 1983. Desde los años noventa funciona con otro componente, Kernel Linux, por lo que se rebautizó como GNU/Linux. "Muchos, erróneamente, llaman al sistema solo Linux...", se queja Stallman. Su rivalidad con el finlandés Linus Torvalds, fundador de Linux, es conocida: le acusa de haberse llevado el mérito de su creación conjunta, nada más y nada menos que un sistema operativo muy competitivo cuyo código fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera y a cuyo desarrollo han contribuido miles de programadores de todo el mundo.

Lo cierto es que el revolucionario movimiento del software libre lo inició Stallman. Este informático, que estudió Física en Harvard y se doctoró en el MIT, muy pronto quedó atrapado por la cultura hacker, cuyo desarrollo coincidió con sus años de juventud. El software libre y el concepto de copyleft (en contraposición a copyright) tampoco serían lo mismo sin este señor risueño de estética hippie.

ATAQUE A LA PRIVACIDAD

Su semblante muta a la más severa seriedad en cuanto se pone a hablar de cómo el software privativo, el que no es libre, colisiona con los derechos de las personas. Ese tema, la falta absoluta de privacidad en la era digital, le obsesiona. No tiene teléfono móvil, acepta que le hagamos fotos solo después de prometerle que no las subiremos a Facebook y asegura que siempre paga en efectivo. "No me gusta que rastreen mis movimientos", subraya. "China es el ejemplo más visible de control tecnológico, pero no el único. Desde hace más de 10 años, en Reino Unido siguen los movimientos de los coches con cámaras que reconocen las matrículas. ¡Eso es horrible, tiránico!"

NO TIENE MÓVIL Y ACEPTA QUE LE HAGAMOS FOTOS SOLO SI PROMETEMOS NO SUBIRLAS A FACEBOOK

El software libre es su aportación como programador a la lucha por la integridad de las personas. "O los usuarios tienen el control del programa, o el programa tiene el control de los usuarios. En este último caso, el desarrollador del software ejerce poder sobre los usuarios. El programa se convierte en un instrumento de dominación", explica.

Se dio cuenta de esta dicotomía cuando la informática estaba todavía en pañales. "En 1983 decidí que quería poder usar ordenadores en libertad, pero era imposible porque todos los sistemas operativos de la época eran privativos. ¿Cómo cambiar eso? Solo me quedó una solución: escribir un sistema operativo alternativo y hacerlo libre". Así arrancó GNU. Más de tres décadas después, la Free Software Foundation, que él mismo fundó, tiene decenas de miles de programas libres en catálogo.

"Hemos logrado liberar ordenadores personales, servidores, supercomputadoras... pero no podemos liberar completamente la informática de los móviles: la mayoría de los modelos no permite instalar un sistema libre. Y eso es muy triste, es un claro cambio a peor en los últimos 10 años", se lamenta Stallman.

"Los móviles son el sueño de Stalin, porque emiten cada dos o tres minutos una señal de ubicación para seguir los movimientos del teléfono", espeta. El motivo de incluir esa función, dice, fue inocente: era necesario para dirigir llamadas o mensajes a los dispositivos. Pero tiene el efecto perverso de que también se pueden seguir los movimientos del portador. "Y peor aún, uno de los procesadores de los teléfonos tiene una puerta trasera universal. Es decir, que pueden imponer cambios de software a distancia, aunque en el otro procesador uses solo programas de software libre. Uno de los usos principales es convertirlos en dispositivos de escucha, que no se apagan nunca porque los móviles no tienen interruptor", sentencia.

NOS DEJAMOS OBSERVAR

Los móviles son solo una parte del dibujo. A Stallman le preocupa que los aparatos conectados aporten a las empresas privadas cada vez más datos sobre nosotros. "Crean historiales de navegación, de comunicaciones... Hasta hay un juguete sexual que se comunica con otros usuarios a través de Internet. Eso sirve para espiar y hacer historiales, claro. Porque además tiene un termómetro. ¿Qué le aporta un termómetro al dueño del juguete? A él nada; al fabricante, saber cuándo está en contacto con un cuerpo humano. Este tipo de cosas son intolerables", se queja.

Los grandes productores de aparatos electrónicos no solo apuestan en masa por el software privativo: algunos están empezando a evitar frontalmente el software libre. "Apple acaba de comenzar a fabricar ordenadores que rehúsan la instalación del sistema GNU/Linux. No sabemos por qué, pero lo están haciendo. Hoy en día, Apple es más injusto que Microsoft. Ambos lo son, pero Apple se lleva el premio", asevera.

¿Es el Reglamento General de Protección de Datos (RGPD) europeo una respuesta acertada a esta situación? "Es un paso en la buena dirección, pero no es suficiente. Parece demasiado fácil justificar la acumulación de datos. Los límites deberían ser muy estrictos. Si es posible transportar a pasajeros sin identificarles, como hacen los taxis, entonces debería ser ilegal identificarlos, como hace Uber. Otro fallo del RGPD es que no se aplica a los sistemas de seguridad. Lo que necesitamos es protegernos de las prácticas tiránicas del Estado, que pone muchos sistemas de seguimiento a la gente".

El escándalo de Facebook y Cambridge Analytica no le sorprendió. "Siempre he dicho que Facebook y sus dos tentáculos, Instagram y WhatsApp, son un monstruo de seguimiento a la gente. Facebook no tiene usuarios, sino usados. Hay que huir de ellos", zanja.

No podemos aceptar, nos insta Stallman, que otros conozcan información sensible sobre cómo vivimos nuestra vida. "Hay datos que hace falta compartir: por ejemplo, dónde vives o quién paga la luz de un apartamento para resolver los pagos. Pero nadie tiene por qué saber qué haces en tu vida diaria. Qué productos compras, siempre que sean legales, tampoco. Los datos realmente peligrosos son quién va a dónde, quién se comunica con quién y qué hace cada uno durante el día", subraya. "Si se los damos, lo tendrán todo".

Fuente: Retina.ElPais.com

jueves, 24 de octubre de 2019

Estos serán los trabajos que morirán por la inteligencia artificial



Si eres traductor profesional, intérprete, recepcionista, empleado de una cadena de comida rápida o de un call center, radiólogo, mecánico, inspector industrial o asistente legal (paralegal, en inglés) tu empleo y modo de vida parecen ser de los primeros en verse afectados por el desarrollo de la inteligencia artificial y el aprendizaje de máquinas.

"La inteligencia artificial hoy es comparable con el motor de combustión del automóvil en 1910. El automóvil y el motor de combustión reformularon todas las economías del mundo en el transcurso de tres o cuatro décadas. La inteligencia artificial tiene mayor potencial y por ende mayor riesgo", explicó en entrevista exclusiva con Expansión Brad Smith, presidente de Microsoft.

El también jefe legal de la firma, y quien ayudó en su momento a Bill Gates y Steve Ballmer a sortear muchas de las demandas de monopolio que Microsoft enfrentó en los noventa, dijo que el reto que tienen México y otras sociedades es que los cambios provocados por la inteligencia artificial serán mucho más acelerados que aquellos generados por el automóvil.

Para hacerlo más claro, Smith utilizó tres fotografías del Palacio de Bellas Artes en la Ciudad de México. En la primera, se mostraba la edificación en la década de 1920 aún sin terminar, alrededor de esta decenas de carrozas con caballos circulaban por lo que hoy son avenidas como Eje Central y Alameda.

La segunda fotografía mostraba un Palacio de Bellas Artes completamente terminado (alrededor de 1934), en donde las carrozas y los primeros vehículos comenzaban a convivir en las calles de la ciudad de México.

En la tercera fotografía "sólo diez años después, ya no había carrozas con caballos. El caballo perdió su empleo frente al automóvil y sucedió como con todos los cambios tecnológicos, de forma paulatina, hasta que fue totalmente evidente", comentó Smith.

Pero la pérdida de empleo no solo fue para el caballo, Smith comenta que el automóvil generó disrupción en otros empleos e industrias como establos, criaderos de caballos, veterinarios especializados, empresas de monturas o similares.

"Muchos empleos desaparecieron o dejaron de ser tan relevante porque la demanda por ellos se redujo", dijo.

Al igual que las carrozas contra que aparecen en los autos en la foto del Palacio de Bellas Artes, la inteligencia artificial ya comenzó a reemplazar o a adquirir conocimientos suficientes para reemplazar algunos empleos.

Hoy, algunos sistemas de reconocimiento del lenguaje humano tienen más de 95% de retención, los sistemas de traducción ya han superado más de un 85% de precisión. Las máquinas ya son capaces de interpretar entre edades de seres humanos, razas de perros, estructuras naturales o artificiales o, en algunos casos, detectar ciertos tipos de cáncer con sólo mirar una tomografía en segundos.

Smith dijo que a medida que las máquinas comiencen a mejorar sus habilidades, conforme ganen mejor reconocimiento visual, analítico y toma de decisiones tendrán la capacidad de reemplazar empleos como los radiólogos o incluso reemplazar flotillas completas de conductores de camiones o automóviles de logística y transporte urbano.

Si estos sistemas mejoran aún más su capacidad de interpretación del lenguaje humano, análisis y la toma de decisiones, entonces empleos como los centros de contacto, restaurantes de comida rápida, así como intérpretes o traductores están en riesgo de ser reemplazados por robots, software o aplicaciones en teléfonos inteligentes.

Sin embargo, Smith explicó que habrá algunos empleos que posiblemente no serán reemplazados por la inteligencia artificial, dado el desarrollo de habilidades específicas que difícilmente una máquina podría dominar.

"Maestros, enfermeras, trabajadores sociales o terapeutas, son algunos de los empleos que tiene la posibilidad de verse menos afectados por el desarrollo de la inteligencia artificial en las próximas décadas", dijo Smith.

El experto de Microsoft dijo que uno de los cambios más urgentes, pero también más complicados para aminorar este impacto es pasar de ser sociedades que crean trabajadores con base en conocimientos a ciudadanos que operan con base en habilidades tanto humanas como técnicas.

Para evitar que la brecha tecnológica continúe ampliándose y por ende el medio a la tecnología y el cambio crezca, Smith dijo que es urgente que México entienda que la electricidad del siglo XXI se llama internet.

"Debemos abordar la brecha de conectividad porque la banda ancha se ha convertido en la electricidad del siglo XXI. Tenemos que llevarlo a las comunidades rurales. Ese es un gran problema en los Estados Unidos. Es un gran problema en México y en muchos otros países, y determinará el futuro de la prosperidad en estos lugares", afirmó.

Un análisis de la firma de consultoría Ducker Frontier estima que México podría generar casi cinco veces más empleos entre 2018 y 2030, frente al pronóstico actual si el país (empresas, gobierno, sociedad civil y academia) es capaz de aprovechar el máximo potencial de la inteligencia artificial.

Algunos de los sectores más beneficiados para generar empleos de alta calificación (mejor pagados) serían: servicios públicos y de negocios, minería, manufactura y construcción.

"La inteligencia artificial será la tecnología más definitoria de los próximos 30 o 40 años. Pero lo que es emocionante es lo que puede hacer para ayudar a resolver algunos de los mayores desafíos sociales que enfrentamos. Tengo mucho optimismo de que la inteligencia artificial realmente nos permitirá encontrar una cura para el cáncer y nos permitirá buscar nuevas soluciones para la sostenibilidad, el uso del agua y la reducción del carbono y similares", aseguró Smith.

Fuente: TecReview.tec.mx

martes, 22 de octubre de 2019

Aprendizaje automático, el ejemplo finlandés: así es el laboratorio de la inteligencia artificial



El país nórdico lucha por convertirse en un 'hub' mundial en el desarrollo de 'machine learning' gracias a la estrecha colaboración entre Gobierno, universidades y empresas de diferentes sectores

A la habitual imagen de frío, nieve y auroras boreales, Finlandia pretende añadir otra más tecnológica. Con poco más de 5,5 millones de habitantes, el país nórdico tiene la ambición de convertirse en una especie de laboratorio mundial de inteligencia artificial. En las tierras de Papá Noel, el regalo estrella de estos últimos años es el de la transformación de una economía entera hacia el machine learning. Gobierno, universidades, empresas y startups colaboran estrechamente para que el sueño finés cobre forma lo antes posible. Pero que nadie piense que los robots vendrán de repente con denominación de origen de Laponia. El nuevo modelo que están desarrollando tiene más que ver con algoritmos, programación y automatización.

Uno de los puntos de encuentro para engrasar la maquinaria finlandesa de la inteligencia artificial es el denominado AI Challenge. Se trata de un programa en el que todas las empresas que lo deseen pueden colaborar entre ellas para buscar soluciones innovadoras a través de machine learning. Por el momento, 200 han decidido dar el paso.

Como explica Teemu Roos, profesor de ciencias informáticas en la universidad de Helsinki, la tecnología debe de ser la palanca que modernice la industria del país. "Queremos copiar el entorno de las startups para que todos los actores trabajen entre sí. El mercado laboral está cambiando drásticamente y tenemos que aprovechar nuestra fortaleza en este ámbito", argumenta.

Un gran aliado de este laboratorio escandinavo es el propio Gobierno. Con la aprobación el año pasado de un programa para el desarrollo nacional de la inteligencia artificial, Finlandia dio un gran paso para liderar esta carrera. Desde invertir más dinero público para la investigación hasta cambios curriculares en la educación infantil (de tres a seis años) que incluían asignaturas de programación. "Es una necesidad entender la inteligencia artificial ya desde pequeños.

No se trata de una cuestión técnica, sino de inversión política en la que decidir qué usos y finalidades le vamos a dar", sostiene el ministro de Economía finés, Mika Lintilä. En Francia también han visto con buenos ojos este desarrollo. El presidente de la República, Emmanuel Macron, se sumó a la lucha en marzo al anunciar 1.500 millones de euros para este campo.

Pese a que no haya nada escrito sobre el futuro del machine learning, Finlandia no quiere perder la oportunidad de constituirse en un referente. Según el estudio de McKinsey Modelando el futuro del trabajo en Europa, tiene la posibilidad de convertirse en el segundo país mundial en inteligencia artificial por la gran formación que tiene al respecto en capital humano. Precisamente, este es uno de los saltos pendientes: trascender la teoría.

La Universidad de Turku domina casi a nivel mundial la investigación en algoritmos. En la de Aalto sucede casi lo mismo. Pero todo se queda ahí muchas veces, en un trabajo académico. "Nuestro objetivo es experimentar todo lo posible para que la inteligencia artificial trabaje con los humanos y aumente sus capacidades", asegura Ville Valtonen, CMO de Reaktor.

ESPOO, UN INTENTO DE SILICON VALLEY



En la zona metropolitana de Helsinki, junto a entrantes constantes del mar Báltico, abetos y parques interminables –un entorno muy de postal–, irrumpe Espoo. La segunda ciudad en número de habitantes de Finlandia, con 270.000, no le va a la zaga con la ambición de su país. Nadie lo dice literalmente, pero su intención velada es llegar a ser el Silicon Valley de la inteligencia artificial. Toda una localidad centrada en innovar tanto en las aulas como en las compañías.

Uno de los proyectos más relevantes es el de Centro de Investigación Técnica VTT. Entre el Gobierno y las startups han construido un espacio de colaboración en el que lo mismo se entrena a los algoritmos para detectar precozmente la demencia senil que descifran información recogida en el espacio.

Una de las bazas que juega de momento en contra de que se perciba la importancia que ha adquirido el machine learning es la falta de un made in Finland generalizado. Parece que toda la innovación esté atrapada por la nieve y no pueda salir de las fronteras; pero es solo eso, una impresión.

ÉTICA PARA LA INTELIGENCIA ARTIFICIA

Uno de los grandes interrogantes abiertos en el debate público sobre inteligencia artificial es si comienza a ser oportuno establecer algún tipo de ética. En el caso de Finlandia, que tiene en mente convertirse en un referente de esta tecnología, el propio Gobierno ha creado un grupo de trabajo para que arroje un poco de luz. Tal y como cuenta Outi Keski-Äijö, director general del ministerio de Economía, la intención es aprobar un documento como si de una guía se tratara. "Si cumplimos con los plazos establecidos, tendremos unos 300 puntos para final de año que servirán de referente para la gran mayoría de usos que le demos a la inteligencia artificial", añade.

La inteligencia artificial que desarrollan cada vez llega más lejos. Más allá de la pretensión de que sea un motor de crecimiento económico, el laboratorio tiene muy claro cómo experimentar. "Sería interesante llegar a un deep learning eficaz con un menor uso de los datos. Tenemos un gran problema con todo lo que demanda y hay que mejorarlo", concluye Lintilä. Al margen de si consiguen dar con la tecla adecuada, habrá que empezar a fijarse en las etiquetas, no vaya a ser que los algoritmos vengan de Laponia.

Fuente: Retina.ElPais.com

lunes, 21 de octubre de 2019

Los gurús tecnológicos auguran una nueva internet que cambiará el mundo



"La economía digital será el motor principal para el crecimiento de la economía mundial y los chips de IA más avanzados conformarán la infraestructura de la nueva época", afirmó Robin Li, presidente y cofundador del gigante chino Baidu.

Varios expertos y dirigentes de grandes compañías tecnológicas mundiales como Microsoft, Baidu, Qualcomm, Western Digital o Alibaba pronosticaron hoy que las redes 5G y las posibilidades que ofrece la Inteligencia Artificial (IA) revolucionarán la internet móvil y transformarán el mundo.

En la apertura de la sexta edición de la Conferencia Mundial de Internet en la localidad china de Wuzhen (este), los gurús del sector advirtieron también, sin embargo, de los riesgos para la seguridad y la privacidad que conllevan las nuevas tecnologías, especialmente la gestión de macrodatos que conlleva la Inteligencia Artificial.

"La economía digital será el motor principal para el crecimiento de la economía mundial y los chips de IA más avanzados conformarán la infraestructura de la nueva época", afirmó Robin Li, presidente y cofundador del gigante chino Baidu, equivalente a Google en el país asiático, donde los productos de la empresa estadounidense están vetados.

Según Li, en pocos años se reducirá la dependencia de los móviles al tiempo que los dispositivos de audio o sensores inteligentes ocuparán su espacio.

Las búsquedas en internet, dijo, serán "mucho más precisas" y "estarán en todas partes", más allá de los dispositivos, que se podrán activar con gestos o miradas.

En este sentido, anunció que Baidu está realizando "una gran inversión para convertirse en una plataforma de Inteligencia Artificial a nivel global".

El presidente de Qualcomm, Alex Rogers, también consideró que la IA y las nuevas redes de internet móvil "van a transformar la manera en que la gente se comunica" y destacó los avances de China en el 5G, que, dijo, empezará a funcionar en más de 50 ciudades del país asiático a finales de año.

Por su parte, el subsecretario general de la ONU para Asuntos Económicos y Sociales, Liu Zhenmin, recordó que casi la mitad de la población mundial todavía no tiene acceso a internet y advirtió del riesgo de que se agrande la brecha digital en el planeta con la introducción de las nuevas tecnologías.

El vicepresidente de la compañía estadounidense Microsoft, Harry Shum, ensalzó igualmente los esfuerzos de inversión de China en Inteligencia Artificial y destacó que tanto los gobiernos como las empresas "tienen la responsabilidad de garantizar un buen desarrollo" de esa tecnología.

También John Hoffman, presidente de GSMA, asociación que agrupa a los operadores de telefonía móvil, aseguró que el 5G "va a convertir la ficción en realidad" al crear una "nueva era del internet móvil", cuya economía equivale ya, dijo, al producto interior bruto de Alemania.

Hoffman comparó la competición en las nuevas tecnologías entre las grandes potencias con la carrera espacial y subrayó que "el país que está a la vanguardia en las redes 5G en el planeta es actualmente China".

Curiosamente China -donde están bloqueadas muchas páginas web y aplicaciones occidentales- acoge desde hace seis años esta conferencia de internet, que intenta reflexionar también sobre la cooperación internacional y fomentar una red abierta.

"Las empresas extranjeras son bienvenidas para competir en un marco igualitario", dijo hoy el jefe del Departamento de Propaganda del Partido Comunista Chino (PCCh), Huang Kunming, que instó a promover la "solidaridad y la confianza".

Kunming leyó una carta a los participantes en la conferencia del presidente chino, Xi Jinping, en la que este destacó que "es la responsabilidad común de la comunidad internacional desarrollar, usar y gobernar bien internet para que pueda beneficiar mejor a la humanidad".

"Los países deben seguir el signo de los tiempos, asumir la responsabilidad del desarrollo, afrontar los desafíos y los riesgos, promover conjuntamente la gobernanza global en el ciberespacio y esforzarse por construir una comunidad de futuro compartido en él", dijo el presidente.

En la edición de hace dos años participaron los máximos responsables de empresas estadounidenses como Google o Apple pero la actual guerra comercial y tecnológica entre China y Estados Unidos -incluido el veto de Washington al gigante chino Huawei- han reducido la presencia norteamericana este año.

Fuente: ElEspectador.com

viernes, 18 de octubre de 2019

Sistema de gestión de bases de datos relacionales o RDBMS



Un sistema de gestión de bases de datos relacionales (RDBMS) es una colección de programas y capacidades que permiten a los equipos de TI y a otros crear, actualizar, administrar e interactuar con una base de datos relacional. La mayoría de los RDBMS comerciales utilizan Structured Query Language (SQL) para acceder a la base de datos, aunque SQL fue inventado después del desarrollo inicial del modelo relacional y no es necesario para su uso.

RDBMS vs. DBMS

En general, las bases de datos almacenan conjuntos de datos que pueden consultarse para su uso en otras aplicaciones. Un sistema de gestión de bases de datos admite el desarrollo, la administración y el uso de plataformas de bases de datos.

Un RDBMS es un tipo de DBMS con una estructura de tabla basada en filas que conecta elementos de datos relacionados e incluye funciones que mantienen la seguridad, precisión, integridad y consistencia de los datos.

FUNCIONES DE LOS SISTEMAS DE GESTIÓN DE BASES DE DATOS RELACIONALES

Los elementos del sistema de gestión de bases de datos relacionales que abarcan la base de datos relacional básica son tan intrínsecos a las operaciones que es difícil disociarlos en la práctica.

Las funciones RDBMS más básicas están relacionadas con las operaciones de creación, lectura, actualización y eliminación, conocidas colectivamente como CRUD. Forman la base de un sistema bien organizado que promueve el tratamiento consistente de los datos.

El RDBMS generalmente proporciona diccionarios de datos y colecciones de metadatos útiles en el manejo de los datos. Estos admiten, mediante programación, estructuras de datos y relaciones bien definidas. La gestión del almacenamiento de datos es una capacidad común del RDBMS, y esto se ha definido mediante objetos de datos que van desde cadenas de objetos grandes binarios (blob) hasta procedimientos almacenados. Los objetos de datos como este amplían el alcance de las operaciones básicas de las bases de datos relacionales y se pueden manejarse de varias maneras en diferentes RDBMS.

El medio más común de acceso a datos para el RDBMS es a través de SQL. Sus principales componentes de lenguaje comprenden lenguaje de manipulación de datos (DML) y declaraciones de lenguaje de definición de datos (DDL). Hay extensiones disponibles para los esfuerzos de desarrollo que combinan el uso de SQL con lenguajes de programación comunes, como COBOL (Common Business-Oriented Language), Java y .NET.

Los RDBMS utilizan algoritmos complejos que admiten el acceso de múltiples usuarios concurrentes a la base de datos, mientras mantienen la integridad de los datos. La gestión de seguridad, que impone el acceso basado en políticas, es otro servicio de superposición que el RDBMS proporciona para la base de datos básica, ya que se utiliza en entornos empresariales.

Los RDBMS soportan el trabajo de los administradores de bases de datos (DBA) que deben administrar y monitorear la actividad de la base de datos. Las utilidades ayudan a automatizar la carga de datos y la copia de seguridad de la base de datos. Los RDBMS gestionan archivos de registro que rastrean el rendimiento del sistema en función de los parámetros operativos seleccionados. Esto permite medir el uso, la capacidad y el rendimiento de la base de datos, en particular el rendimiento de las consultas. Los RDBMS proporcionan interfaces gráficas que ayudan a los DBA a visualizar la actividad de la base de datos.

Aunque no se limita únicamente al RDBMS, el cumplimiento de ACID es un atributo de la tecnología relacional que ha demostrado ser importante en la informática empresarial. Representando la atomicidad, la consistencia, el aislamiento y la durabilidad, estas capacidades son particularmente adecuadas para RDBMS por su capacidad para manejar transacciones comerciales.

Los sistemas de gestión de bases de datos relacionales son fundamentales para las aplicaciones clave, como los libros de contabilidad, los sistemas de reservas de viajes y la venta minorista en línea. A medida que los RDBMS han madurado, han alcanzado niveles cada vez más altos de optimización de consultas y también se han convertido en partes clave de las aplicaciones de informes, análisis y almacenamiento de datos para empresas. Los RDBMS son intrínsecos a las operaciones de una variedad de aplicaciones empresariales y están en el centro de la mayoría de los sistemas de administración de datos maestros (MDM).

HISTORIA DE LOS PRODUCTOS RDBMS

Muchos sistemas de gestión de bases de datos relacionales surgieron a medida que se difundieron las noticias a principios de la década de 1970 del modelo de datos relacionales. Este y otros métodos relacionados fueron teorizados originalmente por el investigador de IBM E.F. Codd, quien propuso un esquema de base de datos, u organización lógica, que no estaba directamente asociada con la organización física, como era común en ese momento.

El trabajo de Codd se basó en un concepto de normalización de datos, lo que ahorró espacio de archivo en las unidades de disco de almacenamiento en un momento en que dicha maquinaria podría ser prohibitivamente costosa para las empresas.

Los sistemas de archivos y los sistemas de administración de bases de datos precedieron a lo que podría llamarse la era de RDBMS. Dichos sistemas se ejecutan principalmente en computadoras mainframe. Si bien los RDBMS también se ejecutaban en mainframes (el DB2 de IBM es un ejemplo destacado), gran parte de su ascendencia en la empresa se produjo en implementaciones de computadoras de rango medio UNIX. El RDBMS fue un elemento clave en la arquitectura distribuida de la computación cliente/servidor, que conectaba grupos de computadoras personales independientes a servidores de archivos y bases de datos.

Surgieron numerosos RDBMS junto con el uso de la computación cliente/servidor. Entre los competidores estaban Oracle, Ingres, Informix, Sybase, Unify, Progress y otros. Con el tiempo, tres RDBMS llegaron a dominar en implementaciones comerciales. Oracle, el DB2 de IBM y el SQL Server de Microsoft, que se basó en un diseño con licencia original de Sybase, fueron los favoritos a lo largo de la era informática cliente/servidor, a pesar de los repetidos desafíos de las tecnologías competidoras.

A medida que el siglo XX llegaba a su fin, las versiones de código abierto de RDBMS comenzaron a tener uso, particularmente en aplicaciones web. Dichos sistemas incluyen MySQL y PostgreSQL.

Eventualmente, a medida que la informática distribuida se apoderó más y la arquitectura de la nube se hizo más prominente, los RDBMS se encontraron con la competencia en forma de sistemas NoSQL. Tales sistemas a menudo se diseñaron especialmente para una distribución masiva y una alta escalabilidad en la nube, a veces renunciando a la coherencia completa de estilo SQL para la denominada coherencia eventual de los datos. Pero, incluso en los sistemas en la nube más diversos y complejos, la necesidad de garantizar la coherencia de los datos requiere que los RDBMS aparezcan de alguna forma. Además, las versiones de RDBMS se han reestructurado significativamente para la paralelización y replicación en la nube.

Fuente: SearchDataCenter.TechTarget.com