Es un fantástico juego de rol online desarrollado en HTML5 y CoffeeScript donde podemos aprender los fundamentos de la programación de diferentes lenguajes, mientras nos divertimos jugando y escribiendo código desde nuestro navegador.
Como podéis ver en la imagen superior, en la zona de la izquierda entre mazmorras y castillos es donde transcurre el juego, mientras en el apartado de la derecha es donde introducimos el código (con funciones de autocompletado y ayuda incluidas), para controlar el movimiento y las acciones de nuestros personajes.
Se inicia con un poco de Python, que es el lenguaje de programación que viene predeterminado, pero además tenemos otras opciones como JavaScript, CoffeeScript, Clojure, Lua e Io (estos tres últimos en fase experimental).
EFECTOS SOBRE LA SALUD DEL USO ABUSIVO DE LA TECNOLOGÍA
Insomnio, ansiedad y dolores articulares son las principales consecuencias del uso abusivo del smartphone para nuestra salud. Las compañías de móviles están aportando pequeñas soluciones en formato de herramientas para nuestro Bienestar Digital, pero aún queda mucho camino por recorrer. Un ejemplo de esto, lo estamos viendo estos últimos meses con el auge de las aplicaciones con modo oscuro o modo noche que proyectan hacia nuestros ojos una cantidad de luz sensiblemente inferior a la habitual. Existen estudios como los llevados a cabo por el Centro de Investigación Lumínica de Nueva York que afirman que la luz artificial es capaz de suprimir la secreción de melatonina. De este modo, se interrumpe el ciclo circadiano y disminuye la calidad del sueño. Otro estudio realizado por el Barcelona Institute for Global Health, asegura que andar con el teléfono móvil por la noche aumenta la incidencia de sufrir un cáncer de próstata y de mama.
PROBLEMAS DE VISIÓN
El primer problema es de sobra conocido por madres y padres y quizás el más sencillo de diagnosticar. No es otro que el problema de visión. Desde edades tempranas el uso excesivo de pantallas, ya sea el teléfono móvil, la tablet, los ordenadores o incluso la televisión, provoca que nuestros parpadeos por minuto disminuyan, dando lugar a la sequedad ocular, que conlleva ciertas lesiones, acabando incluso en glaucoma si se da de forma muy prolongada. Relacionado con la visión otro problema presente es el “efecto Tetris” o fenómeno de transferencia. Es muy común en menores y también en adultos después de jugar varias partidas a videojuegos del tipo: Comecocos, Pong o Tetris, este último es el mejor ejemplo, que las imágenes se nos queden grabadas en nuestra retina por mirar la pantalla fijamente y con un importante grado de concentración. La reacción a este efecto empieza justo después de una partida, cuando empezamos a ver bloques cayendo incluso después de haber apartado la vista de la pantalla, o empezamos a fantasear, hasta el punto de llegar a la obsesión, con dichos bloques en sueños.
PROBLEMAS FÍSICOS
La ergonomía a la hora de pasar largos periodos de tiempo delante de una pantalla es importante. El dolor de espalda es la primera causa de lesión o afección en jugadores de eSport en un 70%. El dolor cervical se da en el 52% de los casos siendo la segunda afección más común. Esto suele ir ligado a una mala postura a la hora de sentarnos frente a la pantalla, ya sea, porque no se es consciente de la postura del cuerpo o porque no se ha recibido ningún tipo de lección sobre cuál es la mejor manera para sentarse. En la actualidad prácticamente todos los equipos profesionales de eSport cuentan en sus equipos con personal experto en ergonomía e higiene postural así como fisioterapeutas.
PROBLEMAS DE ADICCIÓN
El pasado año 2018, la Organización Mundial de la Salud (OMS) incluyó la adicción a los videojuegos como enfermedad mental. A pesar de que la Estrategia Nacional sobre Adicciones recoge también el abuso de nuevas tecnologías y videojuegos, lo cierto es que la sociedad todavía no ha terminado de asociar el campo digital al de las conductas adictivas. Entre los síntomas del abuso de videojuegos pueden darse trastornos del control de los impulsos, pérdida o ganancia de peso, falta de higiene personal, disminución de las relaciones interpersonales, alteración del patrón del sueño… Existen varios consejos para para prevenir la adicción a los videojuegos en adolescentes, por tanto, es importante prestar atención y ayuda en fases iniciales.
En el caso de los móviles, la adicción tiene el nombre de nomofobia, acrónimo de la expresión inglesa «no-mobile-phone phobia», miedo a estar incomunicado sin teléfono móvil. Las personas que padecen ‘Nomophobia’ se agobian cuando se queda sin cobertura, se le agota la batería o no encuentran el móvil.
PROBLEMAS NEUROLÓGICOS
Son quizás los problemas más graves y de difícil tratamiento. Aunque no haya pruebas científicas de que los videojuegos puedan causar una epilepsia tradicional, si que pueden dar lugar a epilepsia fotosensible o PSE, una forma común de epilepsia causada por estímulos visuales repetidos en forma de patrones regulares durante un tiempo y espacio determinados. Por ello es recomendable cuando compremos un juego nuevo leer las indicaciones del desarrollador ya que hay veces en las que el jugador no sabe que puede sufrir este tipo de epilepsia y, al darse las condiciones, acaba sufriendo convulsiones.
Otro problema neurológico asociado a las pantallas son las migrañas, producidas por la concentración en una tarea, ya sea un videojuego o una simple hoja de Excel, y mirar fijamente la pantalla durante un período excesivo de tiempo. Sus consecuencias son fuertes dolores de cabeza que pueden durar varias semanas incluso llegar a ser crónicas.
La sociedad avanza a ritmos insostenibles. Cada día aumenta la producción de todo tipo de productos que también consumimos a velocidad de vértigo.
Por otro lado, y aunque estemos más o menos acostumbrados a reciclar, ahora es el momento de aprender otra forma de contribuir a la sostenibilidad del planeta: la eficiencia energética.
No somos plenamente conscientes de cuánta energía desperdiciamos a diario ni de la procedencia de dicha energía.
No obstante, sí tenemos consciencia de lo importante que es reducir nuestro consumo, en general, y de lo mucho que contaminamos los seres humanos.
Definimos eficiencia energética como el uso eficiente de la energía. Un aparato, proceso o instalación es energéticamente eficiente cuando consume una cantidad inferior a la media de energía para realizar una actividad.
Una persona, servicio o producto eficiente comprometido con el medio ambiente, además de necesitar menos energía para realizar el mismo trabajo, también busca abastecerse, si no por completo, con la mayor cantidad posible de energías renovables (también llamadas energías alternativas).
La eficiencia energética busca proteger el medio ambiente mediante la reducción de la intensidad energética y habituando al usuario a consumir lo necesario y no más.
Las emisiones de CO2 que enviamos a la atmósfera son cada vez mayores y, por ese motivo, la eficiencia energética se ha convertido en una forma de cuidar al planeta ya que, no solo está en usar electrodomésticos que consuman menos, sino en que seamos nosotros quienes consumamos menos y de forma más “verde”.
El problema de la eficiencia energética es que todavía es una elección. Actualmente no todos los productos que usamos son eficientes; podemos verlo en las etiquetas de eficiencia energética de muchos electrodomésticos que compramos.
Esto se debe a que la alternativa eficiente siempre es algo más cara, como pasa, por ejemplo, con las bombillas tradicionales y las luces LED.
Podríamos decir que la eficiencia energética es, de momento, un tema de consciencia medioambiental. Sin embargo, hay que tener en cuenta que, no solo se amortizan rápido, sino que un producto eficiente favorece directamente a tu bolsillo, ya que la eficiencia energética va ligada con el ahorro de electricidad.
Adoptando otros hábitos de consumo y aprendiendo a gestionar la energía para disminuirla contribuiremos a cuidar nuestro entorno mientras ahorramos electricidad.
Todas tienen en común que nos permiten prácticamente “lo mismo”. Es decir, conseguir conectar determinados aparatos o dispositivos de forma inalámbrica. Pero no todos funcionan igual, como es lógico. Lo más habitual que veremos en la mayoría de los gadgets que compremos en el día a día es WiFi o Bluetooth. Por ejemplo, utilizas el WiFi o el Bluetooth para conectarte a tu cámara desde el teléfono móvil o a la impresora portátil para enviar fotos que vas a imprimiré.
Bluetooth
El Bluetooth es una de las tecnologías con las que más familiarizados estamos. La usamos para escuchar música del teléfono móvil en el altavoz inalámbrico, para hablar por teléfono con las manos libres del coche o para sincronizar tu smartwatch a través de la aplicación. Esta tecnología nace de la mano de Ericsson y un conjunto de compañías del sector tecnológico al que posteriormente se unieron otras empresas como el propio Microsoft con el objetivo de acaba. El trabajo conjunto de todas ellas hizo que esta tecnología tuviera una rápida aceptación por parte de los fabricantes y que pronto la convirtiésemos en parte de nuestro día a día, con mejoras y versiones.
Gracias a esta tecnología inalámbrica es posible conectar varios dispositivos y que intercambien información entre ellos de manera cómoda y sencilla. Tanto es así, que llevamos ya mucho tiempo utilizando el Bluetooth para transferir contenido entre dispositivos o para conectarnos desde ellos a algunos sistemas como los manos libres. Y es que se trata de una tecnología para la transferencia de voz y datos.
Desde su nacimiento, esta tecnología ha ido evolucionando y mejorando hasta día de hoy, donde el Bluetooth 5.0 es capaz de ofrecer una conexión entre dispositivos a una distancia mayor y una velocidad de transmisión que llega hasta los 2Mbps. Pero eso no es todo, ya que, además, esta última versión del estándar ofrece un consumo de energía de hasta 2,5 veces menos que la versión anterior, lo que garantiza un menor gasto de la batería de los dispositivos.
Características del Bluetooth
Entre las principales características de esta tecnología, encontramos:
1. Opera en la banda ISM libre entre los 2.402 y los 2,480GHz, por lo que no requiere de ninguna licencia.
2. Su alcance depende de la potencia de emisión con la que disponga el equipo transmisor y si estamos en interior o al aire libre.
3. Está orientada a la conexión punto a punto o red de malla de pocos nodos.
4. Velocidad máxima de transmisión de datos 2Mbps.
5. Dificultad para atravesar ciertos obstáculos como paredes.
6. Su uso está principalmente enfocado a ordenadores de sobremesa, portátiles, dispositivos móviles o de salida de audio, manos libres, dispositivos deportivos o de domótica e incluso en juguetes, tecnología médica o industria.
WIFI
Sirve para conectarnos a Internet desde el móvil en casa o para conectarnos a una cafetería de forma inalámbrica cuando necesitamos trabajar. Pero no solo nos permite esto, sino que la tecnología inalámbrica funciona como transmisión de datos para, por ejemplo, conectarte a tu cámara de fotos y transferir las imágenes sin necesidad de utilizar ningún cable entre la propia cámara y el teléfono móvil. Son muchas sus posibilidades.
WiFi viene de Wireless Fidelity o lo que viene a ser lo mismo, Fidelidad inalámbrica. Se trata de una tecnología inalámbrica de transmisión de datos utilizada para Internet basada en ondas de radio, como la propia radio, la televisión o la telefonía móvil. Ahora bien, las frecuencias que se utilizan son distintas, concretamente el WiFi utiliza la de 2,4GHz y 5GHz.
CARACTERÍSTICAS DEL WIFI
Entre las principales características del WiFi hay que destacar:
· Opera en la banda de frecuencia de 2.4 GHz y 5GHz
· Su alcance depende de muchos factores, pero es mucho mayor al del Bluetooth.
· Permite la conexión a Internet de diferentes dispositivos y puede usarse también para conectar dispositivos entre sí dentro de una red.
· Velocidad máxima de transmisión de datos 9,6Gbps para WiFi 6.
· Dificultad para atravesar ciertos obstáculos y puede encontrar interferencias con otras ondas que emiten en las mismas frecuencias.
· Su uso es quizás el más extendido y de ahí que a día de hoy podamos encontrar un montón de dispositivos conectados.
El término se aplica para definir una parte del espectro electromagnético. Concretamente, la parte con menos energía de este. La transmisión de las ondas se produce al generar una corriente a través de un conductor, y se recibe con una antena. El ejemplo más claro es el de una estación de radio y un aparato receptor, como el de nuestro coche.
APLICACIÓN EN LAS COMUNICACIONES
Normalmente nos referimos a las ondas de radio como el medio con el que la radiofrecuencia llega a equipos de comunicación como walkie talkies y radios comerciales. Sin embargo, estas ondas abarcan todos los dispositivos de comunicación que tenemos. Como la televisión, el sistema GPS o las redes móviles. También están presentes en el mundo de los radioaficionados y cualquier otro tipo de elemento que cuente con un emisor y un receptor inalámbricos.
RADIOFRECUENCIA EN MEDICINA
Las ondas de radio se aplican desde hace décadas en tratamientos médicos, tanto incisivos como no invasivos. Desde bisturíes que cauterizan según abren el cuerpo hasta la popular máquina de resonancia magnética, en la medicina hay muchos dispositivos y técnicas que se valen de estas emisiones. Los descubrimientos y avances aún se suceden, y no se descartan nuevas aplicaciones en este campo en el futuro.
TRATAMIENTOS DE ESTÉTICA
Como hemos dicho, la radiofrecuencia también es muy conocida por su aplicación en el cuidado de la belleza. En estos casos se emplean ondas de frecuencias menos intensas que las aplicadas en una operación. Dependiendo de estas frecuencias, se pueden aplicar para reducir las arrugas, ayudar a cicatrizar heridas o estimular la producción de determinadas sustancias en el organismo.
RADIOFRECUENCIA RFID
Ya hemos hablado de las etiquetas RFID y su uso en varios campos. Estas etiquetas emplean frecuencias eléctricas diversas, con las que se puede mandar un mensaje al receptor. Algunas de ellas necesitan alimentación, mientras que otras pueden prescindir de ella, en función del uso que tienen. El ejemplo más común hoy día son las etiquetas antirrobo de los supermercados. Al pasar por un arco que emite ondas, este receptor las identifica y puede activar una alarma.
OTROS USOS
En realidad, hay muchos otros usos para estas ondas. Se aplica en industrias como la del metal, la alimenticia o la astronomía. Los expertos en comunicaciones móviles y otros campos siguen investigando y descubriendo nuevas formas de uso. De modo que no podemos hacer una lista completa de cuáles son todas las aplicaciones que tienen. Probablemente se trate de una fuente de estadio y desarrollo de tecnologías inagotable. Tanto para estas como para nuevas aplicaciones en el futuro. Algo que no es nada extraño, pues, al fin y al cabo, las ondas de radio nos rodean y están presentes en todo nuestro universo.
La comunicación por satélite es el proceso de comunicación a través de señales que se envian desde satélites en la atmosfera en lugar de torres de telefonía celular. Los teléfonos satelitales reciben sus señales no de una torre celular, sino del espacio. Esto permite varias ventajas que puede obtener sobre su red GSM celular.
En el amplio espectro de cosas, la comunicación por satélite no abarca simplemente realizar llamadas de voz y transferir datos de tierra al espacio y de regreso a tierra nuevamente. Hay varios tipos de comunicación por satélite, desde su GPS estándar hasta los medios de comunicación.
Dicho esto, los teléfonos satelitales y los terminales de datos satelitales de banda ancha se encuentran entre las aplicaciones más cruciales de la comunicación satelital. Las redes celulares y terrestres no siempre se extienden hasta donde sus equipos necesitan operar. Incluso cuando lo hacen, estas redes pueden congestionarse o dañarse.
Las comunicaciones por satélite permiten que sus trabajadores en zonas remotas permanezcan conectados y trabajen en cualquier ubicación. Diferentes industrias aprovechan esta tecnología y la utilizan al máximo.
Empresas en sectores de la construcción o pesca, petróleo y gas, minería, perforación y cualquier otra actividad en ubicaciones remotas donde sus comunicaciones celulares habituales pueden ser un desafío. puede hacer un buen uso de las comunicaciones por satélite. También permite la exploración en áreas remotas, especialmente si su negocio requiere que se mantenga conectado para su trabajo.
Hay empresas en las que es casi imposible conectarse cuando están en el terreno de operaciones. Los equipos de perforación y los barcos de pesca oceánica, por ejemplo, necesitan una forma de realizar sus negocios incluso si están en alta mar.
Para las empresas que necesitan viajar alrededor del mundo, un dispositivo de comunicaciones por satélite es un valioso dispositivo de emergencia que lo mantendrá conectado. Si viaja por terreno accidentado o busca negocios en áreas donde no tiene acceso a un buen servicio celular, un dispositivo satelital debería funcionar para usted.
Cuando se trata de su negocio, siempre es importante estar preparado. Inundaciones, huracanes, tornados, incendios, cortes prolongados de electricidad pueden destruir su negocio y si la comunicación celular no funciona, una forma de mantenerse conectado es a través de la comunicación por satélite. La conexión satelital de emergencia puede ser literalmente una cuestión de vida o muerte.
Las amenazas a la seguridad cibernética son una realidad hoy. Existe una demanda creciente de conectividad fiable y segura sin interferencias e intercepciones. Los responsables de la toma de decisiones empresariales deben proteger la información de cualquier intrusion.
1.- Inteligencia Artificial
La Inteligencia Artificial (IA) ha llegado para quedarse en nuestra vida cotidiana, pero todavía no ha acabado de demostrar el impacto que puede tener en la medicina. Es indiscutible la extraordinaria capacidad de la IA para interpretar con precisión imágenes radiológicas, lesiones cutáneas y afectaciones de la retina. Existen más de 90 empresas de nueva creación que trabajan en aplicaciones de IA dedicadas al ámbito de la salud, sin olvidar a los titanes de la tecnología como IBM (Watson), Apple, Google y Microsoft. Recientemente, una filmación de la Universidad de Carolina del Norte sugirió que la IA podría establecer una terapia basada en la evidencia hasta en un 30% de personas cuyo cáncer no llegó a ser identificado por su oncólogo.
3.-Biopsia Líquida para el Cáncer
4.- Monitorización Remota y Rapidez de la Telemedicina
5.-Primera Edición del Genoma CRISPR e Iniciación de Ensayos Clínicos
6.- Ecocardiografías en Teléfonos Móviles
7.- El Laboratorio en Nuestro Bolsillo
Es notable la capacidad de los dispositivos de “point-of-care” (atención a la cabecera del paciente) para detectar de manera rápida y económica un número significativo de enfermedades
infecciosas. La lista incluye actualmente pruebas para VIH, virus del papiloma humano, gripe y estreptococo del grupo A, aunque hay muchas otras pruebas en curso.
8.-Nueva Genómica para la Predisposición al Cáncer y Secuenciación del Genoma Completo
En marzo de 2016, durante la conferencia sobre el futuro de la medicina genómica (Future of Genomic Medicine), una empresa anunció que se conseguiría secuenciar todo el genoma por tan
solo 999 dólares.
9.-Chips Microfluídicos para Laboratorios, con una gota de sangre
La tecnología microfluídica puede conseguir que una proporción considerable de ensayos o análisis resulten baratos a la vez que rápidos y precisos.
10.- Realidad Virtual para Dolor, Fobias y Prevención de Caídas
Sistemas operativos
(SO)
Año:
1960
El concepto surge en la década de los 50, aunque el primer Sistema Operativo de la historia fue creado en 1956 para un ordenador IBM 704, básicamente lo único que
hacía era comenzar la ejecución de un programa cuando el anterior terminaba. Un tanto lejos de su misión actual: proporcionar una interfaz más sencilla a los usuarios (programas o humanos) y
administrar los recursos del hardware, ya sea en el tiempo como en el espacio. Entre los primeros sistemas operativos al Fortran Monitor System ( FMS ) e IBSYS. En los años 60 aparece UNIX, el
cual es la base de la gran mayoría de los SO, en los 70 se desarrolló el lenguaje de programación C, diseñado específicamente para reescribir por completo el código UNIX. El sistema MacOS, MS-DOS
y Windows, rompen la escena en los 80, mientras que Linux lo hace en los 90, quien en los 2000 se alía al proyecto libre GNU.
Microprocesador
Año:
1971
Diseñado en un principio para una calculadora, Intel lanzó una pastilla de silicio que contenía 2300 transistores, el 4004, con lo que nacía oficialmente el
microprocesador en un chip. Aquel equipo tenía una velocidad de reloj de 740 KHz, con líneas de circuito que medían 10 micrones (10000 nanómetros), en la actualidad, un servidor de alto desempeño
tiene un número de transistores un millón de veces mayor.
Computadora personal
Año:
1971
Antes que saliera a la luz la máquina de Steve Wozniak, la Apple I en 1976 a inicios de esa década John Blankenbaker, creó la primera computadora personal de tipo
comercial: Kenbak 1. Lo relevante –aunque el propio invento ya es importante— es que la construcción de este equipo se basó en componentes TTL, pues fue antecesor de los microprocesadores,
lazados por Intel año después. En 1977 la aparición de la Apple II rompería la escena informática, al construirse en serie y distribuirse de forma masiva.
Correo electrónico
Año:
1971
En la época de ARPANET, (lo que después sería Internet), el ingeniero norteamericano Ray Tomlison envió un mensaje dentro de esa red, utilizando el símbolo @
(arroba) para especificar el destinatario del mensaje y con la aplicación SNDMSG. Pero en 1996 todo cambió a raíz de la aparición de Hotmail, como el primer servicio de correo electrónico
gratuito para el público en general.
Para 1997, Microsoft se hacía de la iniciativa por 400 millones de dólares, dando paso a uno de los medios masivos favoritos de ataque por parte de los
hackers.
Internet
Año:
1972
Es difícil imaginar el mundo sin la red de redes: sin correo electrónico, ni buscadores Web, ni YouTube, ni redes sociales. No habría salas de chat, ni blogs, ni un
estudiante podría consultar libros sin salir de su casa. Lo que en 1967 comenzó como un proyecto en Estados Unidos en la Advanced Researchs Projects Agency (ARPA), para crear una red de
ordenadores denominada ARPANET, ahora es utilizado por más de mil millones de personas. En 1972, se demostró que el sistema era operativo, por lo que se creó una red de 40 puntos conectados en
diferentes localizaciones. En 1982, ARPANET adoptó el protocolo TCP/IP, dando paso a Internet (International Net).
En 1991 fue presentada la World Wide Web (WWW), una red de portales que podían ser buscados y mostrados con el protocolo HyperText Transfer Protocol (HTTP), pero su
utilización no fue exponencial, pues a finales de 1992 solamente había 50 sitios Web en todo el mundo, y sólo 150 en 1993. Con el nacimiento, en ese mismo año de buscadores sencillos de instalar
y utilizar como Mosaic, nuevos sitios y actividades comerciales en la red, así como la aparición de computadoras más accesibles al público, Internet comenzó su andar hasta lo que conocemos
ahora.
En la actualidad los expertos dicen que estamos en la Web 3.0, basados en servicios de colectividad, acceso a la red desde cualquier medio, sitio, o equipo. Con
novedades tan relevantes como el uso de la inteligencia artificial.
Ratón de computadora
Año:
1973
Los primeros “ratones” vieron la luz en Canadá por los años 50, sin embargo, el primer prototipo se le adjudica a Douglas Engelbart, norteamericano que entonces
laboraba en una máquina que tenía como objetivo aumentar el intelecto humano (tecnologías como la interfaz gráfica, los videos y el chat surgieron de ese proyecto). La propuesta fue desarrollada
por Xerox PARC, pero se hizo famosa cuando la comercializó Apple. A diferencia de dicho modelo, el cual costó 300 dólares y duró sólo dos semanas, Steve Jobs pidió un ratón que pudiese ser
fabricado por menos de 15 dólares y que tuviera vida de al menos dos años.
Fotografía digital
Año:
1975
El camino dio inicio con el entonces joven ingeniero de la firma japonesa Kodak, Steven Sasson, tuvo la misión de buscar una utilidad a los sensores CCD, con el
objetivo final de crear una cámara en la que no hubiera ninguna parte móvil. Todo tenía que ser digital, desde la captación de la imagen hasta el almacenamiento de la información (lo que se
consiguió a medias). Fue así que nació un ‘armatoste’ de 3 kilogramos, con capacidad para registrar una resolución de 100×100 píxeles (calidad equivalente a 0,01 megapixel), la cual necesitaba 23
segundos para guardar una fotografía en blanco y negro en una cinta de casete y otros 23 para recuperarla.
En 1986, Kodak inventó el primer sensor de megapíxeles del mundo y en 1991 la Dycam Model 1, se considera como la primera cámara de su tipo en el mercado. Y fue en
1999 cuando aparece la Nikon D1, con 2.74 megapíxeles y un costo inicial de menos de 6,000 dólares, dando acceso a más aficionados a la fotografía y no sólo a profesionales. Para 2003 Canon
presentó la primera cámara réflex digital. Mientras en Japón, en 1999, Kyocera comercializó el VP-210, primer teléfono que integraba una cámara digital, la cual podía registrar 20 imágenes o
retransmitir video a 2 imágenes por segundo.
Computadora portátil
Año:
1981
Se podría decir que el equipo precursor de esta tecnología fue la Obsorne I, en 1981, aunque era muy limitado: la pantalla era muy pequeña, del tamaño de un teléfono
celular, con un peso de 10 kg, lo que dificultada su transportación y con un precio de $1,795 dólares. A partir de ahí, aparecieron computadoras que comenzaron a crear lo que hoy conocemos como
máquinas portables: Grid Compas 101, la HX-20 de Epson y la Compaq Portable de Compaq, o la Gavilan SC. Fue hasta 1986 que se presentó la IBM Convertible PC, a la cual se le podía quitar la
pantalla, aunque ésta no servía para nada sin estar puesta en la máquina, pero lo notable era que por fin se presentaba un equipo con una batería recargable. Y fue hasta 1991 cuando se hizo
presente la primera laptop que marcó tendencia por su diseño: Mac PowerBook. Aunque el modelo pesaba 6 kilos, lo que lo distinguió fue la disposición del teclado aventado hacia atrás para darle
espacio al mouse de bolita tan característico de la época, además que fue considerado lo más económico del momento, al registrar un precio que oscilaba entre los $2,299 y los $4,599
dólares.
Hoy contamos con equipos completamente portátiles, con capacidades de hasta 16GB en RAM y 1TB de almacenamiento interno. Pantallas de retina, modelos convertibles en
tabletas e incluso lápices ópticos para mejorar la experiencia de usuario, sin mencionar la inclusión de tarjetas gráficas en verdad poderosas.
Disco compacto
Año:
1982
Este disco con tecnología óptica fue popularizado comercialmente por la sinergia Sony/Philips a principios de la década de los 80, creando furor en materia de
almacenamiento, primero de audio y luego de datos, desplazando al rey: el disquete. Los CD estándar tienen un diámetro de 12 centímetros, un espesor de 1,2 milímetros y pueden almacenar hasta 80
minutos de audio o 700MB de datos.
Pantalla touch
Año:
1983
Tan común interactuar con el teléfono inteligente mediante el desplazamiento con un dedo, que a veces no se le da la importancia debida a esta tecnología. Los
orígenes se remontan a la década de los 70, al Dr. Samuel C. Hurst y su equipo de investigación; quienes utilizaron papel conductor de electricidad para leer un par de coordenadas X e Y, lo que
permitió calcular en unas cuantas horas lo que hubiera llevado días. La idea dio como resultado la primera pantalla táctil. Sin embrago, algunos historiadores le atribuyen la primera al británico
E.A. Johnson, alrededor de los años 1965 y 1967, la cual fue una pantalla táctil capacitiva.
En los 80, HP lanzó al mercado una computadora con pantalla táctil: HP-150, la cual funcionaba con transmisores y receptores infrarrojos montados alrededor de una pantalla Sony CRT de 9 pulgadas; esos sensores detectaban la posición de cualquier objeto no transparente en la pantalla. Sin embargo, éstos se ensuciaban frecuentemente con polvo, por lo cual requería una constante limpieza para su correcto funcionamiento.
Casi 10 años después, Apple introdujo una pantalla de este tipo con su (fracasada) PDA llamada Newton, y fue con el primer ‘smartphone’ de IBM, donde se comenzó a ver realmente el uso de esta tecnología.
Memoria flash
Año:
1984
Aunque Intel fue la primera compañía en comercializar su uso masivo, el japonés Fujio Masuoka es considerado el padre de esta tecnología, y derivó de la evolución de
las entonces utilizadas memorias EEPROM. Cuando aparecieron, trabajaban con las memorias ROM de las BIOS de las computadoras, aunque entonces contenían sólo una celda de memoria, hoy, compañías
como TDK están fabricando discos duros con este tipo de productos (Flash NAND) de hasta 320GB o más y con velocidades de 33.3 Mb/s, y empresas como SanDisk y Kingston trabajan con capacidades de
1TB.
Cabe señalar que su desarrollo va de la mano con el de los dispositivos, por ejemplo, cuando se lanzó en 1998 el primer walkman sin partes móviles (de la empresa RIO), esta tecnología le dio sentido a escuchar música sin ningún tipo de sobresaltos. Años después, haría su aparición la memoria USB, que aunque tiene las mismas bases, son tecnologías de almacenamiento con diferentes desarrollos.
Teléfonos inteligentes
Año:
1992
El uso de los smartphones, se ha vuelto algo cotidiano y las nuevas generaciones se sorprenden cada vez menos con las aplicaciones y herramientas que éstos ofrecen.
Pero cuando en 1973, Motorola lanzó el DynaTAC masivamente, la historia nunca pensó que años después, la gente tendría su vida laboral y personal literalmente en la “palma de la mano”, gracias a
esta pequeña pero poderosa minicomputadora súper portátil.
El primer teléfono inteligente fue diseñado por IBM en 1992 y fue bautizado como Simon, con características de teléfono celular y asistente personal, e incluso integraba pantalla táctil. Fue mostrado en la expo COMDEX y liberado al público en 1993, comercializado por BellSouth. Al cierre de esta edición, Apple ya había lanzado su nuevo producto insignia iPhone X, versión que cuesta arriba de los nada despreciables 25 mil pesos.
Navegadores de Internet
Año:
1993
La definición es simple: son programas que permiten acceder a la Web y éstos han evolucionado a la par que el propio Internet y sus usuarios. Creado en la
Universidad de Illinois, el 14 de marzo de 1993: Mosaic fue el primer navegador que abre la web a los usuarios, mientras Netscape aparece en 1994 y domina la escena hasta 1997, aprovechando que
hasta 1996, Microsoft no incluía en Windows un navegador Web, aunque sí ofrecía acceso a una red privada llamada Microsoft Network. A partir de entonces, el gigante informático integró Internet
Explorer a su propuesta y se apoderó del primer lugar. Netscape prácticamente desapareció en 1998, no sin antes fundar, la iniciativa sin ánimo de lucro Mozilla, que no es otra cosa que un
navegador basado en software libre. En 2003 nació Safari el navegador del logo de la manzana, en 2005 aparecen Firefox y la propuesta noruega Opera, por lo que el fabricante-desarrollador
transnacional vino a la baja con su propuesta.
La puntilla viene con Chrome, de Google, en el 2008, quien es el claro dominador actualmente. A eso se le suma la aparición de las versiones para dispositivos móviles como los teléfonos inteligentes y las tabletas de prácticamente todas las propuestas, lo que genera mayor amplitud en la oferta, incluso, rebasando la demanda.
Bluetooth
Año:
1994
Popularizada por Ericsson, y con Jim Kardach como uno de los responsables del desarrollo de esta tecnología de comunicación inalámbrica, se le bautizó en referencia
a uno de los reyes vikingos: Harald Blåtand, cuya traducción al inglés es Harald Bluetooth, y quien fuera conocido por unificar las tribus noruegas, suecas-danesas y convertirlos al cristianismo.
Esto hizo sentido con la propuesta, que busca la unificación de la comunicación de los sistemas digitales.
Por este protocolo, se realiza la transmisión de voz y datos entre diferentes dispositivos mediante un enlace por radiofrecuencia en la banda ISM de los 2.4 GHz, y los equipos que se conectan se clasifican como Clase 1, Clase 2 o Clase 3, en referencia a su potencia de transmisión. En la actualidad, más de 1400 marcas integran dicha tecnología.
Sistema de Posicionamiento Global (GPS, por sus siglas en inglés)
Año:
1995
Aunque nació en 1973, esta tecnología fue declarada oficialmente funcional en 1995. En sus inicios, la propuesta estaba dirigida al segmento de la milicia
estadounidense, quién al transcurrir de los años, permitió su uso civil con ciertas restricciones. Las aplicaciones disponibles se orientan a sistemas de navegación y aplicaciones cartográficas:
topografía, cartografía, geodesia, sistema de información geográfica (GIS), deportes de montaña, náutica, expediciones de todo tipo, etcétera. También en patrones de tiempo y sistemas de
sincronización, aplicaciones diferenciales que requieran mayor precisión además de aplicaciones militares y espaciales.
El sistema integra una constelación de satélites de navegación que orbitan el planeta a una altitud de cerca de 20000 kilómetros, lo que ayuda a que hoy nadie se
pierda cunado maneja, sobre todo en una gran urbe como la CDMX.
Comercio Online
Año:
1995
Hablar de la evolución del comercio sería un artículo demasiado extenso, pues los cambios que éste ha sufrido a lo largo de la historia de la humanidad, es
interminable. Sin embargo, con la llegada del Internet, también vino una modificación dramática en el quehacer comercial: el eCommerce. La idea primaria es básica, aprovechar las herramientas
electrónicas para realizar intercambios o transacciones comerciales a través de la red, y en, por y para cualquier parte del mundo.
Los primeros datos señalan 1960 como el inicio de este tipo de actividad, gracias a un sistema que permitía a las empresas realizar transacciones electrónicas e
intercambio de información comercial, y aunque en 1994 se vendía la primera pizza online, es en 1995, con la aparición de portales como Amazon y eBay que esta actividad comienza su
posicionamiento transaccional.
Actualmente, y aunque en países como México falta trabajo de adopción y confianza en la seguridad de la información, durante el año pasado este mercado alcanzó los 300 mil millones de pesos, y su en 2017 ya alcanza el 22% de la población mundial y la mitad de los usuarios que compran a través de Internet lo hacen desde dispositivos móviles. Atractivo, ¿no?
Cómputo en la nube
Año:
1996
Su primera concepción se le atribuye a John McCarthy, en 1961, quien imaginaba que la tecnología de tiempo compartido en las computadoras, podría conducir a un
futuro donde el poder del cómputo e incluso de las aplicaciones podrían venderse como un servicio, de la misma forma que el agua o la electricidad. Pero fue hasta 1996 cuando Douglas Parkhill
exploró a fondo muchas de las características actuales de la computación en la nube (aprovisionamiento elástico a través de un servicio de utilidad), así como la comparación de la industria
eléctrica y el uso de las formas públicas, privadas, comunitarias y gubernamentales. Pero fue la compañía Salesforce.com, la que introdujo la entrega de aplicaciones empresariales a través de una
página web, en el año 1999. En el año 2002, Amazon lanzó Amazon Web Service, y el mundo cambió.
En el año 2006, se lanzó Google Docs y trajo el cloud computing a la vanguardia en la conciencia del público, mientras Microsoft llegaría hasta 2009 con Windows
Azure, y dos años después, Apple lanzó el servicio iCloud.
Memoria USB
Año:
1998
Fueron décadas donde el disquete reinaba en cualquier tema de resguardo de información, le quito ese lugar el disco compacto (CD), pero con la llegada de las
memorias flash USB (Universal Serial Bus), éstas se volvieron la fuerza reinante. La historia refiere que en 1998, IBM le pidió a la empresa israelita M Systems (comprada después por SanDisk),
las primeras USB para su línea G inkPad, entonces con 8, 16, 32 y 64 megas. Sin embargo, fue Trek Technology con el modelo ThumbDrive el primero en aparecer en los estantes delas tiendas.
Actualmente, hablar de esas cantidades de almacenamiento parece broma, pues en el mercado se encuentran productos de 2TB, pero si nos ubicamos en el año 2000, tener en una pendrive 16MB era “cosa
del diablo”.
Reproductores de audio
Año:
1998
El primer reproductor musical podría considerarse al fonógrafo, de Edison, para continuar con los “tocadiscos”, sin embargo, cuando Sony lanzó en 1979 el walkman, la
historia dio un giro completo. Fueron aproximadamente 25 años de fabricación de esta línea por parte del gigante japonés, y tuvo su “deceso” en gran medida por la salida al mercado de los
reproductores MP3. Formato de codificación de audio, que usa un algoritmo de compresión de datos con pérdida de calidad.
La era digital tuvo un impacto también en la industria de la música tras la salida del Diamond Rio PMP300, el primer equipo en su tipo en el mercado. Este dispositivo permitía almacenar canciones en su memoria interna, eliminando la necesidad de cargar discos compactos y casetes. Además, el formato electrónico permite descargar temas y producciones desde cualquier lugar por medio de Internet, haciendo más fácil la proliferación de dichos archivos. La aparición en el 2001 del iPod, dio la puntilla para que este modelo de reproducción se masificara definitivamente, pero años después, la posibilidad de escuchar música en un teléfono inteligente, al parecer condenó a muerte a estos aparatos.
Multifuncionales
Año:
1998
Aunque la impresora tiene sus inicios prácticamente junto con la creación de la primera computadora, pues el registro data de la década de los 40, y con importantes
cambios evolutivos en 1953 (la primera de alta velocidad), 1957 (la primera matricial), 1968 (la primera mini impresora), 1971 (láser Xerox [proceso de impresión en seco]), 1976 (nace la
inyección de tinta) y 1988 que fue cuando llegó se comercializó masivamente; 1990 cuando HP lanzó la primera impresoras láser de menos de $1,000 dólares. En 1991 nació la primera impresora de red
y en 1994 la primera LaserJet Color.
Pero en 1998, HP lanzó el primer láser multifunción para el segmento consumidor, un hito en la historia porque integraba varias tecnologías: el usuario y sobre todo las empresas podían imprimir, fotocopiar, escanear y enviar faxes, desde un mismo dispositivo. Y a pesar que los equipos unifuncionales siguieron y continúan evolucionando, lo cierto es que los multifuncionales rompen los esquemas, gracias a la baja en costos de adquisición, de insumos y tecnologías que a la par ayudaron a revolucionar este tipo de dispositivos como el imprimir en color o monocromático, la conexión a la red, la integración del driver de impresión universal (2005, HP), con el que el departamento de TI podía gestionar de forma más eficaz las flotas de impresoras.
Big Data
Año:
1999
Aunque el concepto de la generación de datos no es algo tan novedoso, en 1999, se registró como el primer uso del término en un trabajo académico: Visually Exploring
Gigabyte Datasets in Realtime (ACM). Entonces comenzó la ‘cosquilla’ de centrarse en el análisis de la información, pues empezó a haber una gran cantidad de datos, y no todos son útiles. Para el
2001, Doug Laney, de la consultora Gartner, definió las 3 Vs del Big Data, conceptos que definieron el término: volumen, velocidad y variedad. Con el nacimiento de la Web 2,0 en 2005 y
aplicaciones como Hadoop, el cual es un entorno Big data de software libre, comenzó el posicionamiento de dicha tendencia.
En 2010, las cifras fueron escalofriantes: los datos que se generanban en dos días equivalían a la cantidad generada desde el inicio de la civilización hasta 2003,
según Eric Schmidt de Google. Mientras que en este 2017, y en el auge de tecnologías como el Machine Learning o el Internet de las cosas, el Big data se masifica gracias a
pulseras, aplicaciones móviles
para sus actividades tanto laborales como recreativas, y ya no parará.
Wi-Fi
Año:
2000
En la actualidad, la frase más común cuando la gente llega a cualquier lugar es: ‘¿cuál es la clave de Wifi?’. Gracias a esta tecnología, se volvió excesivamente
sencillo conectar e intercambiar información entre dispositivos electrónicos sin necesidad de una conexión mediante el uso de cables. Las bases del Wi-FI actual nos llevan a 1985, cuando la
comisión de comunicaciones de los Estados Unidos estableció las características que tenía que disponer una red inalámbrica asignando las frecuencias en las que trabajan esta tecnología conocidas
como bandas ISM (Industrial, Scientific, Medical).
En 1997 se lanzó el estándar 802.11 por parte del IEEE (Instituto de ingenieros eléctricos y electrónicos), y en 1999 las empresas 3Com, Airones, Intersil, Lucent Technologies, Nokia y Symbol Technologies, se reunieron para crear la Wireless Ethernet Compatibility Alliance, o WECA, llamada Wi-Fi Alliance, desde 2013 y que tenía como objetivo, designar una marca para fomentar con más facilidad la tecnología inalámbrica y asegurar la compatibilidad de equipos.
Es así que en abril de 2000 la WECA certifica la interoperabilidad de equipos según la norma IEEE 802.11b, bajo la marca Wi-Fi, con lo que al usuario se le garantiza que todos los equipos bajo ese sello pueden ‘hablarse’ sin problemas, independientemente del fabricante de cada uno.
Redes sociales
Año:
2004
En la actualidad, parece imposible interactuar con el mundo sin las ‘Redes Sociales’, se han convertido en la nueva forma de comunicación para las nuevas
generaciones, sin embargo, antes de 1994, cuando se funda GeoCities, como el precursor de los sitios de comunicación, la vida transcurría de manera normal. Y si en 2002 nació el portal
Friendster, y en 2003 la Web MySpace, pioneros en la conexión online, sería la llegada de Facebook de Mark Zuckerberg, en 2004, lo que detonaría definitivamente la adopción de las redes (En 2006
se inaugura Twitter y ayudaría a este posicionamiento).
Concebida originalmente como una plataforma de conexión para estudiantes de la universidad de Harvard, entonces más de la mitad de alumnos (19,500) se suscribieron a
la propuesta. Es tan grande el impacto que ha creado, que en marzo de 2017, cerca de 2,000 millones de personas utilizaron Facebook de forma activa, es decir, un tercio de la población mundial o
lo que es lo mismo: lo equivalente a la población total de India, Estados Unidos e Indonesia juntas.
Youtube
Año:
2005
A mediados de la década del 2000, y justo cuando el boom de Internet se apoderaba de la vida personal y laboral de los usuarios, irrumpió en la escena una plataforma
de gestión de videos: YouTube, causando una revolución en la red. Fueron tres ex-empleados de PayPal, Steve Chen, Chad Hurley y Jawed Karim, quienes tuvieron una idea simple: crear un lugar en la
red donde poder compartir videos públicamente; algo que entonces era virtualmente imposible.
Me at the zoo (Yo en el zoológico), fue el primer clip cargado al sitio el 23 de abril de ese mismo año, y pertenecía a la cuenta de Jawed Karim. En él, podemos ver 18 segundos de una visita al Zoológico de San Diego, acompañados de un breve comentario sobre los elefantes de fondo, nada fuera del otro mundo.
Ni siquiera era considerada una red social, sino un repositorio donde subir, guardar y ver videos, lejos estaban los influencers que hoy las nuevas generaciones admiran. Después de la compra de Google por la friolera de 1,650 millones de dólares, la propuesta no ha dejado de generar dinero y cambios que muchas plataformas han tratado de imitar pero que se antoja difícil para destronar, y menos con la apabullante cifra de más de mil millones de usuarios que registra el portal.
Nanotecnología
Año:
1957
Como se puede comprobar al leer la pasada lista, el desarrollo tecnológico seguirá un camino ascendente sin precedentes. Las 24 propuestas que se plasmaron de cierta
manera tuvieron injerencia en otras tecnologías que su vez, provocaron el nacimiento y evolución de otras. Por lo pronto, son al menos tres disciplinas las que se prevé tendrán una fuerte
interacción con las TIC y entre sí: nanotecnología, biotecnología y las ciencias cognitivas.
Enfoquémonos en la primera; está asociada a nuevos materiales en la infinita escala de lo pequeño: un nanómetro es la millonésima parte de un milímetro, y ésta trabaja en escalas de cien o menos nanómetros. Y las aplicaciones son demasiado abiertas, pues abarcan a la medicina, la industria farmacéutica, la biotecnología, nuevos materiales, química, industria aeroespacial, energía, cómputo, almacenamiento, y un largo etcétera. Recordemos que los semiconductores y la escala de los circuitos integrados son precursores de la nanotecnología.
A su vez, las TIC tendrán influencia en esta propuesta, al utilizar sensores de diversos tipos, incorporados de diferentes formas y métodos en los cuerpos humanos, ofreciendo información en tiempo real de múltiples procesos orientados a la prevención y la curación de enfermedades, por ejemplo, mediante indicadores analizados a distancia. A la par, la vida empresarial se verá infiltrada cada vez más, de dispositivos pequeños que ofrezcan múltiples ventajas de eficiencia laboral y productividad, de la mano de la movilidad, y para ello, la nanotecnología jugará un papel medular en este objetivo.
https://esemanal.mx/2017/10/25-tecnologias-que-cambiaron-el-rumbo-de-la-historia/
DESCARGA DESDE AQUÍ PHOTOSHOP BÁSICO
Las audios digitales se pueden guardar en distintos formatos. Cada uno se corresponde con una extensión específica del archivo que lo contiene. Existen muchos tipos de formatos de audio y no todos se pueden escuchar utilizando un mismo reproductor: Windows Media Player, QuickTime, WinAmp, Real Player, etc. Aquí trataremos los formatos más utilizados y universales: WAV, MP3 y OGG.
Formato WAV
Formato MP3
Formato OGG
Formato MIDI
Es un programa libre y de código abierto para grabar y editar sonidos. Existe versiones para Windows, Linux, Mac, etc. (http://audacity.sourceforge.net/)
DA CLIC EN EL SIGUIENTE ENLACE: https://join.skype.com/ONyIztf3dwCQ
Los sistemas del cuerpo humano son:
Los aparatos del cuerpo humano son:
DROGAS ILÍCITAS