viernes, 27 de marzo de 2015

SERVICIO DE TELE-ASISTENCIA MOVIL

Como víctima de violencia de género, puedes solicitar a través de los servicios sociales de tu Ayuntamiento o Diputación Provincial, el Servicio de Teleasistencia Móvil.
Los servicios sociales de tu Ayuntamiento recogerán tu solicitud y una vez comprobada que se encuentra vigente la orden de protección, será el encargado de emitir la orden de alta en el servicio, que te comunicará.
La incorporación de las usuarias al servicio, se realizará en un plazo no superior a siete días, desde la recepción de la orden de alta, salvo en los casos de urgencia, en los que el plazo será de 48 horas.
Es un servicio gratuito que te ofrece una atención inmediata y a distancia, durante las 24 horas del día, los 365 días del año y sea cual sea el lugar en que te encuentres.
El sistema te permitirá entrar en contacto, ante situaciones de emergencia, con el centro de atención, que cuenta con personal preparado para darte una respuesta adecuada, por sí mismos o movilizando otros recursos.
Este servicio coexiste con la labor desarrollada por las Unidades de Prevención, Asistencia y Protección contra los Malos Tratos a la Mujer (UPAP) de la Policía Nacional y otras policías locales. Estas unidades mantendrán un contacto periódico contigo, realizando el seguimiento de las medidas de protección acordadas y controlando las posibles situaciones de riesgo para tí o tu familia, acompañándote cuando sea necesario durante la tramitación de los procedimientos judiciales en coordinación con otros servicios de asistencia.
Excepcionalmente se podrá solicitar la extensión de este servicio por parte de mujeres que no dispongan de Orden de protección o medida de alejamiento en vigor, ya sea porque han finalizado, porque no se ha acordado en el proceso judicial o porque aún no se ha interpuesto la denuncia; este último caso deberá ser previamente autorizado por los servicios sociales o de igualdad competentes.
Si el Juez/a aprecia un riesgo extremo para ti, también podrá controlar el cumplimiento de la orden de protección obligando al agresor a portar una pulsera electrónica.
En este caso, el Centro de Control te entregará un dispositivo en tu domicilio o en la comisaría más próxima, explicándote su funcionamiento y mantenimiento. Y al agresor le pondrá la pulsera en el Juzgado.
Si el agresor se aproxima a ti o a la zona de exclusión, o cuando pulses el botón de alarma, el Centro de Control se lo comunicará a la Policía que contactará contigo de forma inmediata para conocer tu estado y localización, activando el operativo policial necesario para garantizar tu protección.

sábado, 21 de marzo de 2015

SOFTWARE LIBRE

Software Libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el software. De modo más preciso, se refiere a cuatro libertades de los usuarios del software:
  • La libertad de usar el programa, con cualquier propósito (libertad 0).
  • La libertad de estudiar cómo funciona el programa, y adaptarlo a tus necesidades (libertad 1). El acceso al código fuente es una condición previa para esto.
  • La libertad de distribuir copias, con lo que puedes ayudar a tu vecino (libertad 2).
  • La libertad de mejorar el programa y hacer públicas las mejoras a los demás, de modo que toda la comunidad se beneficie. (libertad 3). El acceso al código fuente es un requisito previo para esto.
Un programa es software libre si los usuarios tienen todas estas libertades. Así pues, deberías tener la libertad de distribuir copias, sea con o sin modificaciones, sea gratis o cobrando una cantidad por la distribución, a cualquiera y a cualquier lugar. El ser libre de hacer esto significa (entre otras cosas) que no tienes que pedir o pagar permisos.
También deberías tener la libertad de hacer modificaciones y utilizarlas de manera privada en tu trabajo u ocio, sin ni siquiera tener que anunciar que dichas modificaciones existen. Si publicas tus cambios, no tienes por qué avisar a nadie en particular, ni de ninguna manera en particular.
La libertad para usar un programa significa la libertad para cualquier persona u organización de usarlo en cualquier tipo de sistema informático, para cualquier clase de trabajo, y sin tener obligación de comunicárselo al desarrollador o a alguna otra entidad específica.
La libertad de distribuir copias debe incluir tanto las formas binarias o ejecutables del programa como su código fuente, sean versiones modificadas o sin modificar (distribuir programas de modo ejecutable es necesario para que los sistemas operativos libres sean fáciles de instalar). Está bien si no hay manera de producir un binario o ejecutable de un programa concreto (ya que algunos lenguajes no tienen esta capacidad), pero debes tener la libertad de distribuir estos formatos si encontraras o desarrollaras la manera de crearlos.
Para que las libertades de hacer modificaciones y de publicar versiones mejoradas tengan sentido, debes tener acceso al código fuente del programa. Por lo tanto, la posibilidad de acceder al código fuente es una condición necesaria para el software libre.
Para que estas libertades sean reales, deben ser irrevocables mientras no hagas nada incorrecto; si el desarrollador del software tiene el poder de revocar la licencia aunque no le hayas dado motivos, el software no es libre.
Son aceptables, sin embargo, ciertos tipos de reglas sobre la manera de distribuir software libre, mientras no entren en conflicto con las libertades centrales. Por ejemplo, copyleft es la regla que implica que, cuando se redistribuya el programa, no se pueden agregar restricciones para denegar a otras personas las libertades centrales. Esta regla no entra en conflicto con las libertades centrales, sino que más bien las protege.
'Software libre' no significa 'no comercial'. Un programa libre debe estar disponible para uso comercial, desarrollo comercial y distribución comercial. El desarrollo comercial del software libre ha dejado de ser inusual; el software comercial libre es muy importante.

Pero el software libre sin `copyleft' también existe. Creemos que hay razones importantes por las que es mejor usar 'copyleft', pero si tus programas son software libre sin ser 'copyleft', los podemos utilizar de todos modos.
Cuando se habla de software libre, es mejor evitar términos como: `regalar' o `gratis', porque esos téminos implican que lo importante es el precio, y no la libertad.

sábado, 14 de marzo de 2015

SUPERVISOR DEL SISTEMAS


Los supervisores del sistema reúnen y presentan datos de rendimiento de los sistemas en tiempo real. Puede utilizar los supervisores para ver el rendimiento del sistema a medida que ocurre en varios sistemas o grupos de sistemas. Por el contrario, debe utilizar los Servicios de recogida para efectuar su análisis posterior. Los gráficos de los supervisores muestran los datos inmediatos del rendimiento de los sistemas, hasta un máximo de 24 horas. Puede utilizar la función Historial gráfico para consultar los gráficos de rendimiento anteriores. Los Servicios de recogida le permiten analizar varios conjuntos de datos de rendimiento reales para un periodo largo del historial del rendimiento del sistema. Puede obtener una vista gráfica de las medidas recopiladas de un periodo de tiempo extenso en la ventana historial gráfico. La función Historial gráfico se puede utilizar mientras se recopilen datos con los Servicios de recogida; no es necesario que un supervisor del sistema esté en funcionamiento.

Los gráficos de los supervisores del sistema presentan los datos de rendimiento del sistema en una interfaz gráfica fácil de utilizar que puede manipular directamente para obtener datos distintos o más detallados. Los supervisores le permiten recoger simultáneamente datos de rendimiento para una amplia gama de medidas del sistema, para cualquier sistema o grupo de sistemas y durante el tiempo que se desee. Una vez se inicia un supervisor, puede realizar otras tareas en el servidor, en Operations Navigator o en el PC. En realidad, aunque apagara el PC, seguiría supervisando el sistema y realizando tantos mandatos o acciones de umbral como haya especificado. El supervisor se ejecutará hasta que decida detenerlo.
 Para supervisar eficazmente en tiempo real el rendimiento del sistema, cree un supervisor del sistema.
Para empezar a trabajar con los supervisores del sistema, elija uno de los siguientes temas:

  • En este tema puede obtener ayuda paso a paso a través del proceso de la creación de un supervisor nuevo. Puede encontrar información acerca de las medidas de rendimiento y de cómo establecer umbrales, acciones de umbral y mandatos de umbral.
  • Puede ver los datos de rendimiento del sistema en una interfaz gráfica fácil de utilizar. En este tema encontrará información sobre cómo sacar el máximo provecho de los gráficos de los supervisores, aprender a obtener datos más detallados, personalizar la pantalla y utilizar el propio gráfico para modificar las propiedades del supervisor.
  • Puede utilizar medidas individuales o series de medidas del conjunto de medidas de rendimiento para obtener distintos tipos de datos de rendimiento. En esta sección se introduce la variedad de medidas de Utilización CPU y los modos en que puede utilizarlas para satisfacer sus necesidades de información.
Por último, encontrará algunos consejos para los supervisores que le facilitarán aún más la supervisión del rendimiento del sistema. Cree supervisores y personalice los gráficos de los supervisores para que reflejen el modo en que gestiona los sistemas.

sábado, 7 de marzo de 2015

ADOBE PHOTOSHOP CS6

 Es un editor de gráficos rasterizados desarrollado por Adobe Systems. Usado principalmente para el retoque de fotografías y gráficos, su nombre en español significa literalmente "taller de fotos". Es líder mundial del mercado de las aplicaciones de edición de imágenes y domina este sector de tal manera que su nombre es amplia mente empleado como sinónimo para la edición de imágenes en general.
Actualmente forma parte de la familia Adobe Creative Suete y es desarrollado y comercializado por Adobe Systems Incorporated inicialmente para computadores Apple pero posteriormente también para plataformas PC con sistema operativo Windows. Su distribución viene en diferentes presentaciones, que van desde su forma individual hasta como parte de un paquete, siendo éstos: Adobe Creative Suite Design Premium y Versión Standard, Adobe Creative Suite Web Premium, Adobe Creative Suite Production Studio Premium y Adobe Creative Suite Master Collection.
En 1987, Thomas Knoll, un estudiante de la Universidad de Michigan escribió un programa en Macintosh Plus para mostrar imágenes a escala de grises en pantallas monocromáticas. Este programa, llamado Display, llamó la atención de su hermano, John Knoll, un trabajador de Industrial Light y Mgic que recomendó a Thomas convertir su programa en un programa completo editor de imágenes. En 1988, Thomas se tomó un receso de 6 meses de sus estudios para trabajar en el programa, junto con su hermano. Thomas renombró el programa a ImagePro, pero el nombre ya se encontraba registrado. Más tarde ese mismo año, Thomas renombró el programa como Photoshop y negoció un trato con el creador de escáneres Barneyscan para distribuir copias del programa con un escáner, "un total de 200 copias de Photoshop fueron distribuidas" de esta manera.
Durante este tiempo, John viajó a Silicon Valley y realizó una demostración del programa a ingenieros de Apple y Russell Brown, director de arte en Adobe. Ambas demostraciones fueron exitosas, y Adobe decidió comprar la licencia para distribuir el programa en septiembre de 1988. Mientras John trabajaba en plug-ins en California, Thomas se quedó en Ann Arbor trabajando en el código. Photoshop 1.0 fue lanzado en 1990 exclusivamente para Macintosh.
Adobe Photoshop en sus versiones iniciales trabajaba en un espacio (bitmap) formado por una sola capa, donde se podían aplicar toda una serie de efectos, textos, marcas y tratamientos. En cierto modo tenía mucho parecido con las tradicionales ampliadoras. En la actualidad lo hace con múltiples capas.
A medida que ha ido evolucionando, el software ha ido incluyendo diversas mejoras fundamentales, como la incorporación de un espacio de trabajo multicapa, inclusión de elementos vectoriales, gestión avanzada de color (ICM /ICC), tratamiento extensivo de tipografías, control y retoque de color, efectos creativos, posibilidad de incorporar plugins de terceras compañías, exportación para sitios web entre otros.
Photoshop se ha convertido, casi desde sus comienzos, en el estándar de facto en retoque fotográfica, pero también se usa extensivamente en multitud de disciplinas del campo del diseño y fotografía, como diseño web, composición de imágenes en mapa de bits, estilismo digital, fotocomposición, edición y grafismos de video y básicamente en cualquier actividad que requiera el tratamiento de imágenes digitales.
Photoshop ha dejado de ser una herramienta únicamente usada por diseñadores, para convertirse en una herramienta usada profusamente por fotógrafos profesionales de todo el mundo, que lo usan para realizar el proceso de retoque y edición digital, no teniendo que pasar ya por un laboratorio más que para la impresión del material.
Con el auge de la fotografía digital en los últimos años, Photoshop se ha ido popularizando cada vez más fuera de los ámbitos profesionales y es quizá, junto a Windows y Flash (de Adobe Systems También) uno de los programas que resulta más familiar (al menos de nombre) a la gente que comienza a usarlo,9 sobre todo en su versión Photoshop Elements, para el retoque casero fotográfico.
Aunque el propósito principal de Photoshop es la edición fotográfica, éste también puede ser usado para crear imágenes, efectos, gráficos y más en muy buena calidad. Aunque para determinados trabajos que requieren el uso de gráficos vectoriales es más aconsejable utilizar Adobe Ilustrator.
Entre las alternativas a este programa, existen algunos programas de software libre como GIMP, orientado a la edición fotográfica en general, o privativos como Photo Paint de Corel, capaz de trabajar con cualquier característica de los archivos de Photoshop, y también con sus filtros plugin.
Photoshop fue creado en el año 1990, soporta muchos tipos de archivos de imágenes, como BMP, JPG, PNG, GIF, entre otros, además tiene formatos de imagen propios. Los formatos soportados por Photoshop son:
  • PSD, PDD: formato estándar de Photoshop con soporte de capas.
  • PostScript: no es exactamente un formato, sino un lenguaje de descripción de páginas. Se suele encontrar documentos en PostScript. Utiliza primitivas de dibujo para poder editarlo.
  • EPS: es una versión de PostScript, se utiliza para situar imágenes en un documento. Es compatible con programas vectoriales y de autoedición.
  • DCS: fue creado por Quark (empresa de software para autoedición) y permite almacenar tipografía, tramas, etc. Se utiliza para filmación en autoedición.
  • Prev. EPS TIFF: permite visualizar archivos EPS que no se abren en Photoshop, por ejemplo los de QuarkXPress.
  • BMP: formato estándar de Windows.
  • GIF: muy utilizado para las web. Permite almacenar un canal alfa para dotarlo de transparencia, y salvarlo como entrelazado para que al cargarlo en la web lo haga en varios pasos. Admite hasta 256 colores.     
  • JPEG: también muy utilizado en la web, factor de compresión muy alto y buena calidad de imagen.
  • TIFF: una solución creada para pasar de PC a MAC y viceversa.
  • PICT: desde plataformas MAC se exporta a programas de auto edición como QuarkXPress.
  • PNG: la misma utilización que los GIF, pero con mayor calidad. Soporta transparencia y colores a 24 bits. Solo las versiones recientes de navegadores pueden soportarlos.
  • PDF: formato original de Acrobat. Permite almacenar imágenes vectoriales y mapa de bits.
  • ICO: es utilizado para representar archivos, carpetas, programas, unidades de almacenamiento, etc.

martes, 24 de febrero de 2015

LAS GAFAS DE GOOGLE

Es un dispositivo de visualización tipo gafas de realidad aumentada desarrollado por Google. Google Glass Explorer Edition fue lanzado por los desarrolladores de Google I/O por 1500 $ + impuestos el año 2013, mientras que la versión para consumidores salió a la venta el 15 de Abril en Estados Unidos.
El 23 de junio del 2014, Google anuncio el lanzamiento de Google Glass fuera de Estados Unidos, llegando a los consumidores del Reino Unido por un costo 1000 € con la posibilidad de adquirir el dispositivo en colores: rojo, negro, carbón, blanco y azul. Durante le conferencia Google I/O 2014, uno de los ausentes fue Glass, sin embargo días después se dio a conocer que el dispositivo habría recibido una mejora en cuanto a su hardware, cambiando de 1GB de memoria RAM a 2GB, además de la incorporación de nuevas aplicaciones. Actualmente las gafas vendidas ya incluyen los 2GB de memoria RAM, sin embargo los poseedores anteriores a esta actualización no podrán realizar un “upgrade”.
El propósito de Google Glass sería mostrar información disponible para los usuarios de teléfonos inteligentes sin utilizar las manos, permitiendo también el acceso a Internet mediante órdenes de voz, de manera comparable a lo que Google Now ofrece en dispositivos Android. El sistema operativo será Android. Project Glass es parte del Google X Lab de la compañía, que ha trabajado en otras tecnologías futuristas, como un vehículo autónomo. El proyecto fue anunciado en Google + por Babak Parviz, un ingeniero eléctrico que trabajó poniendo las pantallas en las lentes; Steve Lee, mánager del proyecto y "especialista en geolocalización"; y Sebastian Thrun, quien desarrolló la universidad online Udacity y trabajó en el proyecto de piloto automático para coches Google Car. Google ya ha patentado Google Glass.

Hardware

Cámara

Google Glass tiene la capacidad de tomar fotos a una resolución de 5 MP y grabar vídeo en 720p.

Touchpad

La patilla derecha del dispositivo Google Glass tiene una superficie táctil que permite a los usuarios controlar el mismo mediante gestos como desplazar y tocar el dedo por el touchpad.

Lentes Adicionales

Estos lentes incluyen 2 cristales (pueden variar de negro o transparentes) sueltos de la marca Ray-Ban. 

Monturas

Google amplió el público objetivo de Google Glass al hacer posible que personas que llevan gafas por prescripción médica puedan ajustar monturas de cristales graduados al dispositivo de realidad aumentada. El precio inicial de las monturas de Google para Google Glass es de 225 dólares y hay disponibles siete modelos: Classic, Bold, Edge, Active, Curve, Thin y Split.
Además, otras empresas como Rochester Optical también han lanzado su línea de lentes graduadas para Google Glass.

Especificaciones técnicas

  • No hay información oficial sobre la resolución de pantalla. Se ha sugerido la de 640 × 360 ya que se recomienda para los desarrolladores de aplicaciones
  • Cámara de 5 megapíxeles, capaz de grabar vídeo 720p
  • Wi-fi 802.11b/g
  • Bluetooth
  • Batería: hasta un día de uso, aunque indican que utilizarlas con Google Hangouts o para grabar vídeo reducirá la batería
  • Almacenamiento de 16 GB sincronizados con la nube (12 GB disponibles)
  • Texas Instruments OMAP 4430 SoC 1.2GHz Dual (ARMv7)
  • 682MB RAM "prox"
  • Giroscopio de 3 ejes.
  • Acelerómetro 3 ejes
  • Sensor geomagnético (brújula)
  • Sensores de luz ambiente y sensor de proximidad interno.
  • Sistema de inducción ósea para la transmisión del sonido. A partir de la versión 2.0 se permite la utilización de auriculares específicos.
  • La montura es ajustable.
  • Se está estudiando la posibilidad de ajustar las gafas para detectar metales, mediante un laser, que analizara el suelo y localizar objetos metálicos enterrados, esta posibilidad hará ya caducos los actuales aparatos detectores de metales.
  • Actualmente se basa en Android 4.0.4 modificado y adaptado al dispositivo.

Características físicas

En cuanto a sus características físicas con respecto al diseño ergonómico y materiales de construcción:
  • El marco es de titanio es de materiales duraderos y se ajusta a cualquier tamaño de cabeza.
  • Las almohadillas de la nariz son ajustables, por lo cual se adaptan a cualquier tamaño de cara y nariz.
  • Peso de 50g.

 Software

  Aplicaciones

Las aplicaciones de Google Glass son aplicaciones gratuitas creadas por desarrolladores de terceros. Glass también utiliza muchas aplicaciones existentes de Google, como Google Maps, Google + y Gmail.
El 15 de abril de 2013, Google lanzó la Mirror API, permitiendo a los desarrolladores empezar a hacer aplicaciones para Google Glass. En los términos del servicio, se afirma que los desarrolladores no pueden poner anuncios en sus aplicaciones o exigir tasas; un representante de Google dijo a The Verge de que esto podría cambiar en el futuro.
Muchos desarrolladores y empresas han creado aplicaciones para Glass, incluyendo aplicaciones de noticias, edición de fotografías, aplicaciones médicas y redes sociales como Facebook y Twitter.
Cirugía en primera persona controlado por comandos de voz..

lunes, 16 de febrero de 2015

SEGURIDAD DE INFORMÁTICA

Es el área de la informática que se enfoca en la protección de la infraestructura computacional y todo lo relacionado con esta y, especialmente, la información contenida o circulante. Para ello existen una serie de estándares, protocolos, métodos, reglas, herramientas y leyes concebidas para minimizar los posibles riesgos a la infraestructura o a la información. La seguridad informática comprende software (bases de datos, metadatos, archivos), y todo lo que la organización valore (activo) y signifique un riesgo si esta información confidencial llega a manos de otras personas, convirtiéndose, por ejemplo, en información privilegiada.
La definición de seguridad de la información no debe ser confundida con la de «seguridad informática», ya que esta última sólo se encarga de la seguridad en el medio informático, pero la información puede encontrarse en diferentes medios o formas, y no solo en medios informáticos.
La seguridad informática es la disciplina que se ocupa de diseñar las normas, procedimientos, métodos y técnicas destinados a conseguir un sistema de información seguro y confiable.
Puesto simple, la seguridad en un ambiente de red es la habilidad de identificar y eliminar vulnerabilidades. Una definición general de seguridad debe también poner atención a la necesidad de salvaguardar la ventaja organizacional, incluyendo información y equipos físicos, tales como los mismos computadores. Nadie a cargo de seguridad debe determinar quien y cuando se puede tomar acciones apropiadas sobre un ítem en específico. Cuando se trata de la seguridad de una compañía, lo que es apropiado varía de organización a organización. Independientemente, cualquier compañía con una red debe de tener una política de seguridad que se dirija a conveniencia y coordinación.
La seguridad informática debe establecer normas que minimicen los riesgos a la información o infraestructura informática. Estas normas incluyen horarios de funcionamiento, restricciones a ciertos lugares, autorizaciones, denegaciones, perfiles de usuario, planes de emergencia, protocolos y todo lo necesario que permita un buen nivel de seguridad informática minimizando el impacto en el desempeño de los trabajadores y de la organización en general y como principal contribuyente al uso de programas realizados por programadores.
La seguridad informática está concebida para proteger los activos informáticos, entre los que se encuentran los siguientes:
  • La infraestructura computacional: Es una parte fundamental para el almacenamiento y gestión de la información, así como para el funcionamiento mismo de la organización. La función de la seguridad informática en esta área es velar que los equipos funcionen adecuadamente y anticiparse en caso de fallas, robos, incendios, boicot, desastres naturales, fallas en el suministro eléctrico y cualquier otro factor que atente contra la infraestructura informática.
  • Los usuarios: Son las personas que utilizan la estructura tecnológica, zona de comunicaciones y que gestionan la información. Debe protegerse el sistema en general para que el uso por parte de ellos no pueda poner en entredicho la seguridad de la información y tampoco que la información que manejan o almacenan sea vulnerable.
  • La información: es el principal activo. Utiliza y reside en la infraestructura computacional y es utilizada por los usuarios.   
    No solo las amenazas que surgen de la programación y el funcionamiento de un dispositivo de almacenamiento, transmisión o proceso deben ser consideradas, también hay otras circunstancias que deben ser tomadas en cuenta e incluso «no informáticas». Muchas son a menudo imprevisibles o inevitables, de modo que las únicas protecciones posibles son las redundancias y la descentralización, por ejemplo mediante determinadas estructuras de redes en el caso de las comunicaciones o servidores en clúster para la disponibilidad.
    Las amenazas pueden ser causadas por:
  • Usuarios: causa del mayor problema ligado a la seguridad de un sistema informático. En algunos casos sus acciones causan problemas de seguridad, si bien en la mayoría de los casos es porque tienen permisos sobre dimensionados, no se les han restringido acciones innecesarias, etc.
  • Programas maliciosos: programas destinados a perjudicar o a hacer un uso ilícito de los recursos del sistema. Es instalado (por inatención o maldad) en el ordenador, abriendo una puerta a intrusos o bien modificando los datos. Estos programas pueden ser un virus informático, un gusano informático, un troyano, una bomba lógica un programa espía o spyware, en general conocidos como malware.
  • Errores de programación: La mayoría de los errores de programación que se pueden considerar como una amenaza informática es por su condición de poder ser usados como exploits por los crackers, aunque se dan casos donde el mal desarrollo es, en sí mismo, una amenaza. La actualización de parches de los sistemas operativos y aplicaciones permite evitar este tipo de amenazas.
  • Intrusos: persona que consiguen acceder a los datos o programas a los cuales no están autorizados (crackers, defacers, hackers, script kiddie o script boy, viruxers, etc.).
  • Un siniestro (robo, incendio, inundación): una mala manipulación o una mala intención derivan a la pérdida del material o de los archivos.
  • Personal técnico interno: técnicos de sistemas, administradores de bases de datos, técnicos de desarrollo, etc. Los motivos que se encuentran entre los habituales son: disputas internas, problemas laborales, despidos, fines lucrativos, espionaje, etc.
  • Fallos electrónicos o lógicos de los sistemas informáticos en general.
  • Catástrofes naturales: rayos, terremotos, inundaciones, rayos cósmicos, etc

    Ingeniería Social

    Existen diferentes tipos de ataques en Internet como virus, troyanos u otros, dichos ataques pueden ser contrarrestados o eliminados pero hay un tipo de ataque, que no afecta directamente a los ordenadores, sino a sus usuarios, conocidos como “el eslabón más débil”. Dicho ataque es capaz de conseguir resultados similares a un ataque a través de la red, saltándose toda la infraestructura creada para combatir programas maliciosos. Además, es un ataque más eficiente, debido a que es más complejo de calcular y prever. Se pueden utilizar infinidad de influencias psicológicas para lograr que los ataques a un servidor sean lo más sencillo posible, ya que el usuario estaría inconscientemente dando autorización para que dicha inducción se vea finiquitada hasta el punto de accesos de administrador.

    Tipos de amenaza

    Existen infinidad de modos de clasificar un ataque y cada ataque puede recibir más de una clasificación. Por ejemplo, un caso de phishing puede llegar a robar la contraseña de un usuario de una red social y con ella realizar una suplantación de la identidad para un posterior acoso, o el robo de la contraseña puede usarse simplemente para cambiar la foto del perfil y dejarlo todo en una broma (sin que deje de ser delito en ambos casos, al menos en países con legislación para el caso, como lo es España).
    Amenazas por el origen
    El hecho de conectar una red a un entorno externo nos da la posibilidad de que algún atacante pueda entrar en ella,y con esto, se puede hacer robo de información o alterar el funcionamiento de la red. Sin embargo el hecho de que la red no esté conectada a un entorno externo, como Internet, no nos garantiza la seguridad de la misma. De acuerdo con el Computer Security Institute (CSI) de San Francisco aproximadamente entre el 60 y 80 por ciento de los incidentes de red son causados desde dentro de la misma. Basado en el origen del ataque podemos decir que existen dos tipos de amenazas:
  • Amenazas internas: Generalmente estas amenazas pueden ser más serias que las externas por varias razones como son:
  • Si es por usuarios o personal técnico, conocen la red y saben cómo es su funcionamiento, ubicación de la información, datos de interés, etc. Además tienen algún nivel de acceso a la red por las mismas necesidades de su trabajo, lo que les permite unos mínimos de movimientos.
  • Los sistemas de prevención de intrusos o IPS, y firewalls son mecanismos no efectivos en amenazas internas por, habitualmente, no estar orientados al tráfico interno. Que el ataque sea interno no tiene que ser exclusivamente por personas ajenas a la red, podría ser por vulnerabilidades que permiten acceder a la red directamente: rosetas accesibles, redes inalámbricas desprotegidas, equipos sin vigilancia, etc.
  • Amenazas externas: Son aquellas amenazas que se originan fuera de la red. Al no tener información certera de la red, un atacante tiene que realizar ciertos pasos para poder conocer qué es lo que hay en ella y buscar la manera de atacarla. La ventaja que se tiene en este caso es que el administrador de la red puede prevenir una buena parte de los ataques externos.
Amenazas por el efecto
El tipo de amenazas por el efecto que causan a quien recibe los ataques podría clasificarse en:
  • Robo de información.
  • Destrucción de información.
  • Anulación del funcionamiento de los sistemas o efectos que tiendan a ello.
  • Suplantación de la identidad, publicidad de datos personales o confidenciales, cambio de información, venta de datos personales, etc.
  • Robo de dinero, estafas,...

lunes, 9 de febrero de 2015

SISTEMAS DE INTELIGENTES

Es un programa de computación que reúne características y comportamientos asimilables al de la inteligencia humana o animal.
La expresión "sistema inteligente" se usa a veces para sistemas inteligentes incompletos, por ejemplo para una casa inteligente o un sistema experto.
Un sistema inteligente completo incluye "sentidos" que le permiten recibir información de su entorno. Puede actuar, y tiene una memoria para archivar el resultado de sus acciones. Tiene un objetivo e, inspeccionando su memoria, puede aprender de su experiencia. Aprende cómo lograr mejorar su rendimiento y eficiencia.
Para que un sistema inteligente pueda ser considerado completo, debe incluir diversas funcionalidades que incluyan
  • Inteligencia: Hay muchas definiciones de "inteligencia". Para usos prácticos usamos esta: La inteligencia es el nivel del sistema en lograr sus objetivos.
  • Sistematización: Un sistema es parte del universo, con una extensión limitada en espacio y tiempo. Las partes del sistema tienen más, o más fuertes, correlaciones con otras partes del mismo sistema; que con partes fuera del sistema.
  • Objetivo: Un objetivo es una cierta situación que el sistema inteligente quiere lograr. Normalmente hay muchos niveles de objetivos, puede haber un objetivo principal y muchos sub objetivos.
  • Capacidad sensorial: Un sentido es la parte del sistema que puede recibir comunicaciones del entorno. Se necesitan los sentidos para que el sistema inteligente puede conocer su entorno y actuar interactiva mente.
  • Conceptualización: Un concepto es el elemento básico del pensamiento. Es el almacenamiento físico, material de información (en neuronas o electrones). Todos los conceptos de la memoria están interrelacionados en red. La capacidad de conceptualizar implica el desarrollo de niveles de abstracción.
  • Reglas de actuación: Una regla de actuación es el resultado de una experiencia o el resultado de interpretar la propia memoria. Relaciona situación y consecuencias de la acción.
  • Memoria: La memoria es un almacenaje físico de conceptos y reglas de actuación. Esto incluye la experiencia del sistema.
  • Aprendizaje: El aprendizaje es probablemente la capacidad más importante de un sistema inteligente. El sistema aprende conceptos a partir de la información recibida de los sentidos. Aprende reglas de actuación a base de su experiencia. La actuación, a veces hecha al azar, se almacena con su valor. Una regla de actuación aumenta en valor si permitió el logro de un objetivo. El aprendizaje incluye la fijación de conceptos abstractos, a base de ejemplos concretos y la creación de conceptos compuestos que contienen los conceptos de partes de un objeto. El aprendizaje también es la capacidad de detectar relaciones (patrones) entre la parte "situación" y la parte "situación futura" de una regla de actuación.  Los seres humanos y animales son sistemas inteligentes naturales, y los sistemas artificiales tratan progresivamente de emular sus capacidades. Los sistemas inteligentes se caracterizan por su capacidad de adaptarse a situaciones cambiantes, capacidad que todavía no logran cabalmente los sistemas artificiales. La dificultad principal se encuentra en el desarrollo de la capacidad de aprendizaje

sábado, 31 de enero de 2015

NOKIA MORPH

Es un teléfono móvil que está siendo desarrollado por Nokia en colaboración con la Universidad de Cambridge en Gran Bretaña y que está basado en nanotecnologia. Nokia Morph será presentado en 2015.
El Nokia Morph sería un móvil flexible, que podría tanto estirarse como plegarse. De esta manera podría cumplir cómodamente sus muchas funciones: podría convertirse en un panel lo bastante grande como para ver un vídeo con una calidad importante o plegarse hasta entrar en bolsillos pequeños. Otra de las cosas interesantes de este dispositivo es que se limpiaría solo y sería semitransparente. Además, tendría muchas funciones extra que contribuirían a hacer que este dispositivo parezca salido de una película de ciencia ficción. Algunas de estas utilidades serían el poder analizar el aire cerca de alimentos u otros elementos para comprobar que estén en buen estado, o tomar diferentes colores para ajustarse al atuendo de quién lo usa de manera de convertirse en un elemento de moda. En conclusión, el Nokia Morph es un proyecto muy ambicioso. Este dispositivo parece tener el potencial para una nueva revolución en la tecnología de los móviles.
Lanzado junto con el Museo de Arte Moderno "Diseño y la Mente Elástica" exposición, el dispositivo concepto Morph es un puente entre las tecnologías muy avanzadas y sus posibles beneficios para los usuarios finales. Este dispositivo presenta un concepto revolucionario saltos siendo explorado por Nokia Research Center (NRC) en colaboración con el Centro de Nanociencia de Cambridge (Reino Unido) - tecnologías de nanoescala que potencialmente podrían crear un mundo radicalmente diferentes dispositivos que abren un espectro completamente nuevo de posibilidades
Recién habilitada con materiales flexibles y transparentes mezclar más a la perfección con la forma en que vivimos. Dispositivos de ser auto-limpieza y auto-preservación electrónica transparente que ofrece una estética completamente nueva dimensión. Construido en la absorción solar puede cargar un dispositivo, mientras que las baterías se hacen más pequeños, más duraderos y más rápido para cargar. Sensores integrados podría permitir a nosotros para aprender más sobre el medio ambiente que nos rodea, que nos posibilita tomar mejores decisiones.
Además de los avances anteriormente, la electrónica integrada se muestra en el concepto Morph podría costar menos y son más funcionalidad en un espacio mucho más pequeño, incluso como interfaces se simplifican y mayor facilidad de uso es. Todas estas nuevas capacidades desatará nuevas aplicaciones y servicios que nos permiten comunicarnos e interactuar en formas sin precedentes.

Flexible y Diseño Cambio

La nanotecnología permite que los materiales y componentes que son flexibles, elásticos, transparente y fuerte notablemente. proteínas fibrillas se tejen en una malla tridimensional que refuerza las estructuras elásticas delgadas. Usando el mismo principio detrás de seda de araña, esta elasticidad permite que el dispositivo, literalmente, cambiar formas y configurar para adaptarse a la tarea en cuestión.
Un diseño de plegado cabrían fácilmente en un bolsillo y podría prestarse ergonómicamente a ser utilizado como un teléfono tradicional. Un desplegado más grande de diseño puede mostrar información más detallada, e incorporar dispositivos de entrada como teclados y controles táctiles.
Incluso electrónica integrada, de las interconexiones con los sensores, podrían compartir estas propiedades flexibles. Además, la utilización de materiales biodegradables podrían hacer que la producción y el reciclaje de los dispositivos más fácil y ecológico.

Autolimpiable

La nanotecnología también se puede aprovechar para crear superficies auto-limpieza en los dispositivos móviles, en última instancia, reducir la corrosión, el desgaste y la longevidad de la mejora. Superficies nanoestructuradas, como "nanoflores" naturalmente repelen el agua, la suciedad, huellas dactilares e incluso utilizando los efectos también se observan en los sistemas naturales.

Fuentes de energía avanzada

Nanotecnología ofrece la posibilidad de que la superficie de un dispositivo se convertirá en una fuente natural de energía a través de una cubierta de "Nanograss« estructuras que la recolección de energía solar. Al mismo tiempo, nuevos materiales de alta densidad de almacenamiento de energía permita que las pilas a ser más pequeños y más delgados, al mismo tiempo más rápido para recargar y capaz de soportar más ciclos de carga.

La detección de Medio Ambiente

Nano sensores sería permitir a los usuarios examinar el entorno que les rodea en formas totalmente nuevas, desde el análisis de la contaminación del aire, para hacerse una idea de los rastros de bio-químicos y procesos. Las nuevas capacidades pueden ser tan compleja como ayudar a monitorizar la evolución de las condiciones en la calidad de nuestro entorno, o tan simple como saber si la fruta que estamos a punto de disfrutar se deben lavar antes de comerla. Nuestra capacidad de sintonizar con nuestro medio ambiente de esta manera nos puede ayudar a tomar decisiones clave que guían nuestras acciones diarias y en última instancia, puede mejorar nuestra salud.

martes, 27 de enero de 2015

PUBLISHER 2013

  • Con Publisher 2013, puedes comunicar fácilmente tu mensaje en una variedad de diferentes tipos de publicaciones, lo que ahorra tiempo y dinero. Aunque no tengas experiencia en diseño gráfico, lo mismo podrás producir resultados de alta calidad cuando crees folletos, boletines informativos, tarjetas postales, tarjetas de felicitación o boletines por correo electrónico. Con Publisher 2013, termina tu trabajo correctamente a la primera.
  • Usa las herramientas mejoradas de edición de imágenes, entre las que se incluyen las herramientas para movimientos panorámicos, acercamientos y encuadre de tus imágenes y marcadores, lo cual facilita reposicionar las imágenes mientras se conserva el diseño de tu página.
  • Diseña y reorganiza páginas como un profesional con la nueva tecnología de alineación de objetos: guías visuales que te ayudan a alinear y posicionar tu contenido sin esfuerzo.
  • Muestra una vista previa de impresión a página completa con una serie de herramientas de diseño de páginas y configuraciones ajustables de impresión con la nueva vista Backstage. 
  • Crea publicaciones dinámicas en muy poco tiempo insertando y personalizando bloques prediseñados de contenido, integrados en el producto o disponibles en la comunidad Publisher, directamente desde Publisher 2013. Elige entre una variedad de partes de páginas —como barras laterales e historias— así como también calendarios, bordes, anuncios y mucho más.
  • Usa efectos de apariencia profesional para texto, formas e imágenes, entre los que se incluyen sombras suaves, reflejos y características de OpenType como ligaduras y alternativas de estilo. Hasta puedes usar Publisher para buscar en tus álbumes en línea de Facebook, Flickr y otros servicios y agregar imágenes directamente al documento, sin tener que guardarlas antes.
  • Importa todas tus imágenes en un solo lienzo y ponlas y sácalas de tu diseño con tan solo arrastrar y colocar. Esto se debe a que este editor ha sido históricamente menos querido o deseado por parte de los centros gráficos o de impresión, en comparación a las otras aplicaciones DTP recién mencionadas.
    Además, su posición como una aplicación de «nivel de entrada» agrava algunas de su limitaciones (sobre todo en sus versiones antiguas), como las tipografías (fonts) no disponibles, o la imposibilidad de mostrar objetos incrustados (object embedding) en otras computadoras (no obstante, Publisher provee de herramientas para empaquetar múltiples archivos en un único archivo auto-extraíble, y así lidiar con este problema). Algunas típicas características de una aplicación de alto nivel de este tipo, como las transparencias, el sombreado de objetos o la exportación directa a formato PDF no son funcionales o directamente no están soportadas (sobre todo, en las versiones más viejas del software).
    Sin embargo, las versiones recientes del producto tienen una mayor capacidad en relación a la separación y el procesamiento de varios (niveles de) colores. Microsoft Publisher 2007 también incluye la capacidad para la exportación de archivos en formato PDF, con la posibilidad de incluir o incrustar (embed) las propias fuentes tipográficas dentro de ellos (garantizando así su fiel reproducción en computadoras que no tienen instaladas demasiadas fonts, particularmente aquellas que no son tan populares). No obstante, esta característica está disponible como una descarga (download) adicional desde el sitio web de Microsoft.
    El formato de archivo propietario de Publisher no es soportado por la mayoría de las otras aplicaciones, con la única excepción de Adobe PageMaker No obstante, el plug-in PUB2ID (Publisher to InDesign) de Markzware's convertirá documentos de Publisher de sus versiones 2002 hasta 2007 a los formatos CS2 y CS3 de Adobe InDesign. Asimismo, Publisher soporta otros formatos como el EMF (Enhanced Metafile, «meta-archivo mejorado»), el cual está relativamente difundido en la plataforma Windows.
    Publisher está incluido entre la gama alta de los programas de Microsoft Office. Esto refleja el énfasis de Microsoft de posicionar su producto como una alternativa relativamente barata a los dos «pesos pesados» de la industria. También está enfocado al mercado de las pequeñas empresas, las cuales usualmente no disponen de profesionales específicamente dedicados al diseño y maquetación de páginas y documentos.
    Respecto del porqué el Publisher solamente tiene una muy pequeña porción del mercado esto se debe exclusivamente a que se trata de un segmento liderado por aplicaciones como ser dobe inDesign y QuarkXpress. El Publisher ha sido históricamente menor apreciado por los centros gráficos y de impresión en comparación a las aplicaciones que recién mencionábamos, por tanto, es que su participación en el mercado es realmente pequeña.
    Pero esta no ha sido la única razón de su poca apreciación, sino que también el hecho de ser una aplicación de nivel de entrada empeora sus limitaciones, especialmente en los casos de las versiones más antiguas, que por ejemplo, no permiten ver disponibles algunas fuentes, no pueden mostrar objetos incrustados en otras computadoras, transparencias, sombreados de objetos y exportar directamente a formato PDF.
    De todos modos, vale destacar, que las versiones más recientes de Publisher, tales como Microsoft Publisher 2007 presentan una mayor capacidad en lo que respecta a la separación y procesamientos de varios niveles de colores, asimismo permite exportar archivos en formato PDF con la posibilidad de incrustar las propias fuentes tipográficas dentro de ellos, aunque ojo, esta aplicación solamente se podrá descargar desde el sitio web.
    A pesar de los contras y de los pros, Microsoft Publisher se encuentra dentro de la lista de programas de alta gama de Microsoft Office. Su uso es muy común y útil en las pequeñas empresas que no suelen disponer de profesionales dedicados al diseño y la maquetación de páginas y documentos.




 


 

miércoles, 21 de enero de 2015

INGENIERIA DE COMPUTADORES

Estudia el desarrollo de sistemas automatizados y el uso de los lenguajes de programación; de igual forma se enfoca al análisis, diseño y la utilización del hardware y software para lograr la implementación de las más avanzadas aplicaciones industriales y telemáticas.
Es el área de trabajo que se concentra en el estudio de situaciones susceptibles de automatizar mediante el uso de sistemas de computación y componentes digitales, a fin de determinar la factibilidad técnica, la conveniencia operacional, la factibilidad económica y la evaluación de alternativas existentes para desarrollar la solución más adecuada.
La ingeniería en computación se ocupa de la naturaleza y características de la información, su estructura y clasificación, su almacenamiento y recuperación y los diversos procesos a los que puede someterse en forma automatizada. Se interesa igualmente por las propiedades de las máquinas físicas que realizan estas operaciones para producir sistemas de procesamientos de datos eficientes. Trata todo lo relacionado con la utilización de computadoras digitales.
La respuesta a las preguntas: ¿Qué es lo que puede ser eficientemente automatizado? y ¿Cómo se puede lograr eso de la mejor manera, en base a los recursos disponibles?. compete a la ingeniería en computación.

Origen

La historia de la computación puede remontarse a cientos de años atrás, cuando se creaban máquinas para ayudar en tareas de cálculos (como el ábaco). La primera calculadora mecánica fue creada en 1623 por Wilhelm Schickard, y Charles Babbage diseñó la máquina diferencial en la época victoriana. Todas las máquinas que se limitaban a realizar una sola tarea, o como mucho, algún subconjunto de todas las posibles tareas.
Las nuevas y poderosas computadoras comenzaron a ser desarrolladas durante la década de los 40, que es también cuando comenzó a hacerse evidente que las computadoras podían usarse para mucho más que simples cálculos matemáticos.
La masificación de la computación llegó de la mano de las computadoras personales a principios de los 80, y el acceso a la información mundial de la mano de internet, que comenzó su éxito en los 90.
Las ciencias de la computación tiene sus orígenes en 1920, cuando la palabra «computación» hacía referencia a los cálculos generados por la propia persona. Luego, con la llegada de las computadoras, la historia y el significado de este concepto se amplió, distinguiendo los algoritmos que forman parte del desarrollo de las soluciones.

Perfil profesional

El ingeniero en computación representa una nueva perspectiva en el campo laboral, ya que abarca distintos aspectos de la electrónica y la informática. Sus funciones involucran de forma directa o indirecta el uso del computador, siendo ésta su herramienta fundamental de trabajo.
En el área del hardware, podrá utilizar y adaptar el computador como una herramienta para el control de procesos industriales, realizando interfaces entre el sistema y el computador, de modo que sea posible el monitoreo de las tareas en tiempo real. Asimismo, estará dotado de un amplio conocimiento sobre sistemas automatizados basados en robótica, pudiendo diseñar circuitos de lógica digital para liberar al hombre de la realización de tediosos procesos repetitivos o de actividades que impliquen un riesgo para su vida.
Los ingenieros en computación son capaces de aplicar la tecnología de avanzada en la solución de los problemas y estrategias gerenciales, con el fin de utilizar todos los recursos eficazmente. Emplea sus conocimientos como herramienta para crear y modificar sistemas cibernéticos, además de evaluar, modificar, diseñar, actualizar y supervisar los sistemas de operación a fin de ofrecer óptimo servicio en cumplimiento de las necesidades ocasionadas por la dinámica de las organizaciones.
Es un profesional preparado en las áreas correspondientes a estructuras y sistemas de computación, estructuras y procesos de información, investigación operativa y modelos matemáticos.
Los ingenieros en computación tienen un entrenamiento extensivo en áreas de Ingeniería Eléctrica y ciencias en computación, que son combinaciones atractivas para los futuros contratantes y permiten al estudiante continuar sus estudios en instituciones de postgrado.

Campo laboral

El ingeniero en computación es un profesional capaz de actuar productivamente en equipos multidisciplinarios, donde demuestra habilidades para la autogestión y la cogestión, además de una conducta de liderazgo empresarial. Puede desempeñarse en las siguientes áreas:
  • Empresas, industrias e instituciones públicas y privadas que cuenten con o deseen implantar sistemas computarizados de información y control
  • Compañías para el servicio y mantenimiento de software y hardware para sistemas de información y equipos de computación.
  • Industrias con aplicación de la robótica
  • Empresas de apoyo y soporte tecnológico para las telecomunicaciones
  • Corporaciones nacionales e internacionales especializadas en la instalación de redes de computadores a gran escala
  • Compañías de diseño, prograbación e implementación de software
  • Compañías asesoras de control de procesos industriales computarizados
  • Firmas y fundaciones públicas y privadas de investigación científica y tecnológica
  • Compañías productoras de bienes de consumo masivo
  • Empresas asociadas a la Ingeniería en Computación
  • Compañías petroleras e industrias en general
  • Instituciones de educación superior
El ingeniero en computación puede desempeñarse en muchas áreas, debido a la gran flexibilidad que tiene la profesión; y es por esta razón que prácticamente cualquier organización de pequeña, mediana o mayor escala es una fuente de empleo para estos profesionales.

 



 



 

sábado, 10 de enero de 2015

TECNOLOGÍA DE LA INFORMACIÓN

Es la aplicación de ordenadores y equipos de telecomunicación para almacenar, recuperar, transmitir y manipular datos, con frecuencia utilizado en el contexto de los negocios u otras empresas. El término es comúnmente utilizado como sinónimo para los computadores, y las redes de computadoras pero también abarca otras tecnologías de distribución de información, tales como la televisión y los teléfonos. Múltiples industrias están asociadas con las tecnologías de la información, incluyendo hardware ysoftware de computador, electrónica, semiconductores, internet, equipos de telecomunicación, e-commerce y servicios computacionales.
Los humanos han estado almacenando, recuperando, manipulando y comunicando información desde que los sumerios en Mesopotamia desarrollaran la escritura cerca del 3000 a. C., pero el término tecnología de la información en su significado moderno hizo su primera aparición en 1958 en un artículo publicado en la revista Harvard Business Review; sus autores Harold J. Leavitt y Thomas L. Whisler comentaron que “la nueva tecnología no tiene aún un nombre establecido. Deberíamos llamarla tecnología de la información (TI)”. Su definición consistía en tres categorías: técnicas de procesamiento, la aplicación de métodos estadísticos y matemáticos para la toma de decisión, y la simulación del pensamiento de orden superior a través de programas computacionales.
Basándose en la tecnología de almacenamiento y procesamiento empleada, es posible distinguir cuatro eras del desarrollo de TI: pre-mecánica (3000 a. C.-1450 d. C.), mecánica (1450-1840), electromecánica (1840-1940) y electrónica (1940-al presente). 

Historia de la informática

Se han sido utilizados dispositivos para asistir a la computación durante miles de años, iniciando probablemente con el palo tallado. El mecanismo de anticitera, que data cerca del comienzo del primer siglo a. C., es considerado generalmente como la computadora análoga más antigua descubierta, y el más antiguo mecanismo de engranaje. Dispositivos de engranaje comparables no surgieron en Europa hasta el siglo XVI, y no fue hasta 1645 cuando se inventó la primera calculadora mecánica capaz de realizar las cuatro operaciones aritméticas básicas.
Las computadoras electrónicas, usando tanto relés como válvulas, comenzaron a aparecer a comienzos de la década de 1940. La electromecánica Zuse Z3, terminada en 1941, fue la primera computadora programable del mundo, y, según los estándares modernos, una de las primeras máquinas que podrían ser consideradas de cómputo completa. Colosuss, desarrollada durante la Segunda Guerra Mundial para desencriptar mensajes alemanes, fue la primera computadora electrónica digital. Aunque era programable, no era de uso general, habiendo sido diseñada para realizar una única tarea. Carecía además de la capacidad de almacenar su programa en una memoria; su programación se realizaba usando enchufes e interruptores para alterar su cableado interno. La primera computadoras de programas almacenados electrónica digital reconocible fue la Máquina Experimental de Pequeñas  Cosas de Mánchester (SSEM por su nombre en inglés: Manchester Small-Scale Experimental Machine), que ejecutó su primer programa el 21 de junio de 1948.
El desarrollo de los transistores a finales de la década de 1940 en los Laboratorios Be permitió una nueva generación de computadoras diseñadas con un consumo de energía reducido considerablemente. La primera computadora de programa almacenado disponible comercialmente, la Ferranti Mark I, contenía 4050 válvulas y tenía un consumo energético de 25 kilowatts. En comparación, la primera computadora transistorizada, desarrollada en la Universidad de Manchester y operacional en noviembre de 1953, consumía solo 150 watts en su versión final.

Almacenamiento de datos

Las primeras computadoras electrónicas, como la Colossus, hacían uso de cintas perforadas, una larga tira de papel en donde los datos son representados por una serie de agujeros, una tecnología ahora obsoleta. El almacenamiento electrónico de datos usado por las computadoras modernas data de la Segunda Guerra Mundial, cuando una forma de memoria de línea  de retardo fue desarrollada para eliminar el desorden de las señales de radar; la primera aplicación práctica de esto fue la línea de retardo de mercurio. El primer dispositivo de almacenamiento digital de acceso aleatorio fue el Tuvo Williams, basado en un tuvo de rayos cátodicos estándar, pero la información almacenada en ella y en la memoria de línea de retardo era volátil, por lo que debía ser continuamente refrescada, y por lo tanto se perdía una vez que se desconectaba de la energía. La primera forma de almacenamiento computacional no volátil fue la memoria de tambor, inventada en 1932 y usada en la Ferranti Mark I, la primera computadora de uso general disponible comercialmente.
IBM introdujo el primer disco duro en 1956, como un componente de su sistema computacional 305 RAMAC. La mayoría de los datos digitales al día de hoy son almacenados magnéticamente en discos duros, u ópticamente en medios como los CD-ROMs. Hasta 2002, la mayoría de la información era almacenada en dispositivos analógicos, pero ese año la capacidad de almacenamiento digital superó al analógico por primera vez. En 2007 cerca del 94 % de los datos almacenados mundialmente eran digitales: 52 % en discos duros, 28 % en medios ópticos y 11 % en cintas magnéticas digitales. Se ha estimado que la capacidad mundial de almacenamiento de información en dispositivos electrónicos creció de menos de 3 exabetys en 1986 a 295 exabytes en 2007, doblándose aproximadamente cada tres años.

Bases de datos: 

Los sistemas de administración de bases de datos surgieron en la década de 1960 para abordar el problema de almacenar y recuperar grandes cantidades de datos de manera precisa y rápida. Uno de los primeros sistemas fue el Information Management System de IBM, el cual sigue siendo ampliamente implementado más de 40 años después. El IMS almacena datos jerárquicamente, pero en la década de 1970, Ted Codd propuso como alternativa los modelos de almacenamiento relacionales basándose en la teoria de conjuntos y en la lógica de predicados y en conceptos familiares como lo son las tablas, filas y columnas. El primer sistema de gestión de bases de  datos relacionales (RDBMS del inglés: Relational Database Management System) comercial disponible fue el de Oracle en 1980.
Todos los sistemas de administración de bases de datos consisten en un número de componentes que juntos permiten que los datos que ellos almacenan sean accedidos simultáneamente por varios usuarios mientras mantienen su integridad. Una característica de todas las bases de datos es que la estructura de los datos que contienen es definido y almacenado de manera separada de los datos mismos, en el llamado esquema de la base de datos.
El lenguaje de marcas extensible o XML, siglas en inglés de eXtensible Markup Language, se ha vuelto un formato para la representación de datos popular en los últimos años. Aunque los datos XML pueden ser almacenados en sistemas de archivos normales, son comúnmente usados en bases de datos relacionales para aprovechar su “aplicación robusta verificada durante años por esfuerzos tanto teóricos como prácticos”. Como una evolución del Estándar de Lenguaje de Marcado Generalizado o SGML, las estructuras basadas en texto XML ofrecen la ventaja de poder ser leídas por máquinas como por humanos.