Como víctima de violencia de género,
puedes solicitar a través de los servicios sociales de tu Ayuntamiento o
Diputación Provincial, el Servicio de Teleasistencia Móvil.
Los servicios sociales de tu
Ayuntamiento recogerán tu solicitud y una vez comprobada que se
encuentra vigente la orden de protección, será el encargado de emitir la
orden de alta en el servicio, que te comunicará.
La incorporación de las usuarias al
servicio, se realizará en un plazo no superior a siete días, desde la
recepción de la orden de alta, salvo en los casos de urgencia, en los
que el plazo será de 48 horas.
Es un servicio gratuito que te ofrece
una atención inmediata y a distancia, durante las 24 horas del día, los
365 días del año y sea cual sea el lugar en que te encuentres.
El sistema te permitirá entrar en
contacto, ante situaciones de emergencia, con el centro de atención, que
cuenta con personal preparado para darte una respuesta adecuada, por sí
mismos o movilizando otros recursos.
Este servicio coexiste con la labor
desarrollada por las Unidades de Prevención, Asistencia y Protección
contra los Malos Tratos a la Mujer (UPAP) de la Policía Nacional y otras
policías locales. Estas unidades mantendrán un contacto periódico
contigo, realizando el seguimiento de las medidas de protección
acordadas y controlando las posibles situaciones de riesgo para tí o tu
familia, acompañándote cuando sea necesario durante la tramitación de
los procedimientos judiciales en coordinación con otros servicios de
asistencia.
Excepcionalmente se podrá solicitar la extensión de este servicio por
parte de mujeres que no dispongan de Orden de protección o medida de
alejamiento en vigor, ya sea porque han finalizado, porque no se ha
acordado en el proceso judicial o porque aún no se ha interpuesto la
denuncia; este último caso deberá ser previamente autorizado por los
servicios sociales o de igualdad competentes.
Si el Juez/a aprecia un riesgo extremo
para ti, también podrá controlar el cumplimiento de la orden de
protección obligando al agresor a portar una pulsera electrónica.
En este caso, el Centro de Control te
entregará un dispositivo en tu domicilio o en la comisaría más próxima,
explicándote su funcionamiento y mantenimiento. Y al agresor le pondrá
la pulsera en el Juzgado.
Si el agresor se aproxima a ti o a la
zona de exclusión, o cuando pulses el botón de alarma, el Centro de
Control se lo comunicará a la Policía que contactará contigo de forma
inmediata para conocer tu estado y localización, activando el operativo
policial necesario para garantizar tu protección.
Software Libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el software. De modo más preciso, se refiere a cuatro libertades de los usuarios del software:
La libertad de usar el programa, con cualquier propósito (libertad 0).
La libertad de estudiar cómo funciona el programa, y adaptarlo a tus necesidades (libertad 1). El acceso al código fuente es una condición previa para esto.
La libertad de distribuir copias, con lo que puedes ayudar a tu vecino (libertad 2).
La libertad de mejorar el programa y hacer públicas las mejoras a los demás, de modo que toda la comunidad se beneficie. (libertad 3). El acceso al código fuente es un requisito previo para esto.
Un programa es software libre si los usuarios tienen todas estas libertades. Así pues, deberías tener la libertad de distribuir copias, sea con o sin modificaciones, sea gratis o cobrando una cantidad por la distribución, a cualquiera y a cualquier lugar. El ser libre de hacer esto significa (entre otras cosas) que no tienes que pedir o pagar permisos.
También deberías tener la libertad de hacer modificaciones y utilizarlas de manera privada en tu trabajo u ocio, sin ni siquiera tener que anunciar que dichas modificaciones existen. Si publicas tus cambios, no tienes por qué avisar a nadie en particular, ni de ninguna manera en particular.
La libertad para usar un programa significa la libertad para cualquier persona u organización de usarlo en cualquier tipo de sistema informático, para cualquier clase de trabajo, y sin tener obligación de comunicárselo al desarrollador o a alguna otra entidad específica.
La libertad de distribuir copias debe incluir tanto las formas binarias o ejecutables del programa como su código fuente, sean versiones modificadas o sin modificar (distribuir programas de modo ejecutable es necesario para que los sistemas operativos libres sean fáciles de instalar). Está bien si no hay manera de producir un binario o ejecutable de un programa concreto (ya que algunos lenguajes no tienen esta capacidad), pero debes tener la libertad de distribuir estos formatos si encontraras o desarrollaras la manera de crearlos.
Para que las libertades de hacer modificaciones y de publicar versiones mejoradas tengan sentido, debes tener acceso al código fuente del programa. Por lo tanto, la posibilidad de acceder al código fuente es una condición necesaria para el software libre.
Para que estas libertades sean reales, deben ser irrevocables mientras no hagas nada incorrecto; si el desarrollador del software tiene el poder de revocar la licencia aunque no le hayas dado motivos, el software no es libre.
Son aceptables, sin embargo, ciertos tipos de reglas sobre la manera de distribuir software libre, mientras no entren en conflicto con las libertades centrales. Por ejemplo, copyleft es la regla que implica que, cuando se redistribuya el programa, no se pueden agregar restricciones para denegar a otras personas las libertades centrales. Esta regla no entra en conflicto con las libertades centrales, sino que más bien las protege.
'Software libre' no significa 'no comercial'. Un programa libre debe estar disponible para uso comercial, desarrollo comercial y distribución comercial. El desarrollo comercial del software libre ha dejado de ser inusual; el software comercial libre es muy importante.
Pero el software libre sin `copyleft' también existe. Creemos que hay razones importantes por las que es mejor usar 'copyleft', pero si tus programas son software libre sin ser 'copyleft', los podemos utilizar de todos modos.
Cuando se habla de software libre, es mejor evitar términos como: `regalar' o `gratis', porque esos téminos implican que lo importante es el precio, y no la libertad.
Los supervisores del sistema reúnen y presentan datos de rendimiento de los sistemas en tiempo real. Puede utilizar los supervisores para ver el rendimiento del sistema a medida que ocurre en varios sistemas o grupos de sistemas. Por el contrario, debe utilizar los Servicios de recogida para efectuar su análisis posterior. Los gráficos de los supervisores muestran los datos inmediatos del rendimiento de los sistemas, hasta un máximo de 24 horas. Puede utilizar la función Historial gráfico para consultar los gráficos de rendimiento anteriores. Los Servicios de recogida le permiten analizar varios conjuntos de datos de rendimiento reales para un periodo largo del historial del rendimiento del sistema. Puede obtener una vista gráfica de las medidas recopiladas de un periodo de tiempo extenso en la ventana historial gráfico. La función Historial gráfico se puede utilizar mientras se recopilen datos con los Servicios de recogida; no es necesario que un supervisor del sistema esté en funcionamiento.
Los gráficos de los supervisores del sistema presentan los datos de rendimiento del sistema en una interfaz gráfica fácil de utilizar que puede manipular directamente para obtener datos distintos o más detallados. Los supervisores le permiten recoger simultáneamente datos de rendimiento para una amplia gama de medidas del sistema, para cualquier sistema o grupo de sistemas y durante el tiempo que se desee. Una vez se inicia un supervisor, puede realizar otras tareas en el servidor, en Operations Navigator o en el PC. En realidad, aunque apagara el PC, seguiría supervisando el sistema y realizando tantos mandatos o acciones de umbral como haya especificado. El supervisor se ejecutará hasta que decida detenerlo.
Para supervisar eficazmente en tiempo real el rendimiento del sistema, cree un supervisor del sistema.
Para empezar a trabajar con los supervisores del sistema, elija uno de los siguientes temas:
En este tema puede obtener ayuda paso a paso a través del proceso de la creación de un supervisor nuevo. Puede encontrar información acerca de las medidas de rendimiento y de cómo establecer umbrales, acciones de umbral y mandatos de umbral.
Puede ver los datos de rendimiento del sistema en una interfaz gráfica fácil de utilizar. En este tema encontrará información sobre cómo sacar el máximo provecho de los gráficos de los supervisores, aprender a obtener datos más detallados, personalizar la pantalla y utilizar el propio gráfico para modificar las propiedades del supervisor.
Puede utilizar medidas individuales o series de medidas del conjunto de medidas de rendimiento para obtener distintos tipos de datos de rendimiento. En esta sección se introduce la variedad de medidas de Utilización CPU y los modos en que puede utilizarlas para satisfacer sus necesidades de información.
Por último, encontrará algunos consejos para los supervisores que le facilitarán aún más la supervisión del rendimiento del sistema. Cree supervisores y personalice los gráficos de los supervisores para que reflejen el modo en que gestiona los sistemas.
Es un editor de gráficos rasterizados desarrollado por Adobe Systems. Usado principalmente para el retoque de fotografías y gráficos, su nombre en español significa literalmente "taller de fotos". Es líder mundial del mercado de las aplicaciones de edición de imágenes y domina este sector de tal manera que su nombre es amplia mente empleado como sinónimo para la edición de imágenes en general.
Actualmente forma parte de la familia Adobe Creative Suete y es desarrollado y comercializado por Adobe Systems Incorporated inicialmente para computadores Apple pero posteriormente también para plataformas PC con sistema operativo Windows. Su distribución viene en diferentes presentaciones, que van desde su forma individual hasta como parte de un paquete, siendo éstos: Adobe Creative Suite Design Premium y Versión Standard, Adobe Creative Suite Web Premium, Adobe Creative Suite Production Studio Premium y Adobe Creative Suite Master Collection.
En 1987, Thomas Knoll, un estudiante de la Universidad de Michigan escribió un programa en Macintosh Plus para mostrar imágenes a escala de grises en pantallas monocromáticas. Este programa, llamado Display, llamó la atención de su hermano, John Knoll, un trabajador de Industrial Light y Mgic que recomendó a Thomas convertir su programa en un programa completo editor de imágenes. En 1988, Thomas se tomó un receso de 6 meses de sus estudios para trabajar en el programa, junto con su hermano. Thomas renombró el programa a ImagePro, pero el nombre ya se encontraba registrado.Más tarde ese mismo año, Thomas renombró el programa como Photoshop y negoció un trato con el creador de escáneres Barneyscan para distribuir copias del programa con un escáner, "un total de 200 copias de Photoshop fueron distribuidas" de esta manera.
Durante este tiempo, John viajó a Silicon Valley y realizó una demostración del programa a ingenieros de Apple y Russell Brown, director de arte en Adobe. Ambas demostraciones fueron exitosas, y Adobe decidió comprar la licencia para distribuir el programa en septiembre de 1988. Mientras John trabajaba en plug-ins en California, Thomas se quedó en Ann Arbor trabajando en el código. Photoshop 1.0 fue lanzado en 1990 exclusivamente para Macintosh.
Adobe Photoshop en sus versiones iniciales trabajaba en un espacio (bitmap) formado por una sola capa, donde se podían aplicar toda una serie de efectos, textos, marcas y tratamientos. En cierto modo tenía mucho parecido con las tradicionales ampliadoras. En la actualidad lo hace con múltiples capas.
A medida que ha ido evolucionando, el software ha ido incluyendo diversas mejoras fundamentales, como la incorporación de un espacio de trabajo multicapa, inclusión de elementos vectoriales, gestión avanzada de color (ICM /ICC), tratamiento extensivo de tipografías, control y retoque de color, efectos creativos, posibilidad de incorporar plugins de terceras compañías, exportación para sitios web entre otros.
Photoshop se ha convertido, casi desde sus comienzos, en el estándar de facto en retoque fotográfica, pero también se usa extensivamente en multitud de disciplinas del campo del diseño y fotografía, como diseño web, composición de imágenes en mapa de bits, estilismo digital, fotocomposición, edición y grafismos de video y básicamente en cualquier actividad que requiera el tratamiento de imágenes digitales.
Photoshop ha dejado de ser una herramienta únicamente usada por diseñadores, para convertirse en una herramienta usada profusamente por fotógrafos profesionales de todo el mundo, que lo usan para realizar el proceso de retoque y edición digital, no teniendo que pasar ya por un laboratorio más que para la impresión del material.
Con el auge de la fotografía digital en los últimos años, Photoshop se ha ido popularizando cada vez más fuera de los ámbitos profesionales y es quizá, junto a Windows y Flash (de Adobe Systems También) uno de los programas que resulta más familiar (al menos de nombre) a la gente que comienza a usarlo,9 sobre todo en su versión Photoshop Elements, para el retoque casero fotográfico.
Aunque el propósito principal de Photoshop es la edición fotográfica, éste también puede ser usado para crear imágenes, efectos, gráficos y más en muy buena calidad. Aunque para determinados trabajos que requieren el uso de gráficos vectoriales es más aconsejable utilizar Adobe Ilustrator.
Entre las alternativas a este programa, existen algunos programas de software libre como GIMP, orientado a la edición fotográfica en general, o privativos como Photo Paint de Corel, capaz de trabajar con cualquier característica de los archivos de Photoshop, y también con sus filtros plugin.
Photoshop fue creado en el año 1990, soporta muchos tipos de archivos de imágenes, como BMP, JPG, PNG, GIF, entre otros, además tiene formatos de imagen propios. Los formatos soportados por Photoshop son:
PSD, PDD: formato estándar de Photoshop con soporte de capas.
PostScript: no es exactamente un formato, sino un lenguaje de descripción de páginas. Se suele encontrar documentos en PostScript. Utiliza primitivas de dibujo para poder editarlo.
EPS: es una versión de PostScript, se utiliza para situar imágenes en un documento. Es compatible con programas vectoriales y de autoedición.
DCS: fue creado por Quark (empresa de software para autoedición) y permite almacenar tipografía, tramas, etc. Se utiliza para filmación en autoedición.
Prev. EPS TIFF: permite visualizar archivos EPS que no se abren en Photoshop, por ejemplo los de QuarkXPress.
BMP: formato estándar de Windows.
GIF: muy utilizado para las web. Permite almacenar un canal alfa para dotarlo de transparencia, y salvarlo como entrelazado para que al cargarlo en la web lo haga en varios pasos. Admite hasta 256 colores.
JPEG: también muy utilizado en la web, factor de compresión muy alto y buena calidad de imagen.
TIFF: una solución creada para pasar de PC a MAC y viceversa.
PICT: desde plataformas MAC se exporta a programas de auto edición como QuarkXPress.
PNG: la misma utilización que los GIF, pero con mayor calidad. Soporta transparencia y colores a 24 bits. Solo las versiones recientes de navegadores pueden soportarlos.
PDF: formato original de Acrobat. Permite almacenar imágenes vectoriales y mapa de bits.
ICO: es utilizado para representar archivos, carpetas, programas, unidades de almacenamiento, etc.
Es un dispositivo de visualización tipo gafas de realidad aumentada desarrollado por Google. Google Glass Explorer Edition fue lanzado por los desarrolladores de Google I/O por 1500 $ + impuestos el año 2013, mientras que la versión para consumidores salió a la venta el 15 de Abril en Estados Unidos.
El 23 de junio del 2014, Google anuncio el lanzamiento de Google
Glass fuera de Estados Unidos, llegando a los consumidores del Reino
Unido por un costo 1000 € con la posibilidad de adquirir el dispositivo
en colores: rojo, negro, carbón, blanco y azul. Durante le conferencia Google I/O 2014, uno de los ausentes fue Glass,
sin embargo días después se dio a conocer que el dispositivo habría
recibido una mejora en cuanto a su hardware, cambiando de 1GB de memoria
RAM a 2GB, además de la incorporación de nuevas aplicaciones.
Actualmente las gafas vendidas ya incluyen los 2GB de memoria RAM, sin
embargo los poseedores anteriores a esta actualización no podrán
realizar un “upgrade”.
El propósito de Google Glass sería mostrar información disponible para los usuarios de teléfonos inteligentes sin utilizar las manos, permitiendo también el acceso a Internet mediante órdenes de voz, de manera comparable a lo que Google Now ofrece en dispositivos Android. El sistema operativo será Android. Project Glass es parte del Google X Lab de la compañía, que ha trabajado en otras tecnologías futuristas, como un vehículo autónomo. El proyecto fue anunciado en Google + por Babak Parviz,
un ingeniero eléctrico que trabajó poniendo las pantallas en las
lentes; Steve Lee, mánager del proyecto y "especialista en
geolocalización"; y Sebastian Thrun, quien desarrolló la universidad online Udacity y trabajó en el proyecto de piloto automático para coches Google Car. Google ya ha patentado Google Glass.
Hardware
Cámara
Google Glass tiene la capacidad de tomar fotos a una resolución de 5 MP y grabar vídeo en 720p.
Touchpad
La patilla derecha del dispositivo Google Glass tiene una superficie
táctil que permite a los usuarios controlar el mismo mediante gestos
como desplazar y tocar el dedo por el touchpad.
Lentes Adicionales
Estos lentes incluyen 2 cristales (pueden variar de negro o transparentes) sueltos de la marca Ray-Ban.
Monturas
Google amplió el público objetivo de Google Glass al hacer posible
que personas que llevan gafas por prescripción médica puedan ajustar
monturas de cristales graduados al dispositivo de realidad aumentada. El
precio inicial de las monturas de Google para Google Glass es de 225
dólares y hay disponibles siete modelos: Classic, Bold, Edge, Active,
Curve, Thin y Split.
Además, otras empresas como Rochester Optical también han lanzado su línea de lentes graduadas para Google Glass.
Especificaciones técnicas
No hay información oficial sobre la resolución de pantalla. Se ha
sugerido la de 640 × 360 ya que se recomienda para los desarrolladores
de aplicaciones
Cámara de 5 megapíxeles, capaz de grabar vídeo 720p
Wi-fi 802.11b/g
Bluetooth
Batería: hasta un día de uso, aunque indican que utilizarlas con Google Hangouts o para grabar vídeo reducirá la batería
Almacenamiento de 16 GB sincronizados con la nube (12 GB disponibles)
Sensores de luz ambiente y sensor de proximidad interno.
Sistema de inducción ósea para la transmisión del sonido. A partir
de la versión 2.0 se permite la utilización de auriculares específicos.
La montura es ajustable.
Se está estudiando la posibilidad de ajustar las gafas para detectar metales, mediante un laser, que analizara el suelo y localizar objetos metálicos enterrados, esta posibilidad hará ya caducos los actuales aparatos detectores de metales.
Actualmente se basa en Android 4.0.4 modificado y adaptado al dispositivo.
Características físicas
En cuanto a sus características físicas con respecto al diseño ergonómico y materiales de construcción:
El marco es de titanio es de materiales duraderos y se ajusta a cualquier tamaño de cabeza.
Las almohadillas de la nariz son ajustables, por lo cual se adaptan a cualquier tamaño de cara y nariz.
Peso de 50g.
Software
Aplicaciones
Las aplicaciones de Google Glass son aplicaciones gratuitas creadas
por desarrolladores de terceros. Glass también utiliza muchas
aplicaciones existentes de Google, como Google Maps, Google + y Gmail.
El 15 de abril de 2013, Google lanzó la Mirror API, permitiendo a los
desarrolladores empezar a hacer aplicaciones para Google Glass. En los
términos del servicio, se afirma que los desarrolladores no pueden poner
anuncios en sus aplicaciones o exigir tasas; un representante de Google
dijo a The Verge de que esto podría cambiar en el futuro.
Muchos desarrolladores y empresas han creado aplicaciones para Glass,
incluyendo aplicaciones de noticias, edición de fotografías,
aplicaciones médicas y redes sociales como Facebook y Twitter.
Cirugía en primera persona controlado por comandos de voz..
Es el área de la informática que se enfoca en la protección de la infraestructura computacional y
todo lo relacionado con esta y, especialmente, la información contenida o
circulante. Para ello existen una serie de estándares, protocolos,
métodos, reglas, herramientas y leyes concebidas para minimizar los
posibles riesgos a la infraestructura o a la información. La seguridad
informática comprende software (bases de datos, metadatos, archivos),
y todo lo que la organización valore (activo) y signifique un riesgo si
esta información confidencial llega a manos de otras personas,
convirtiéndose, por ejemplo, en información privilegiada.
La definición de seguridad de la información
no debe ser confundida con la de «seguridad informática», ya que esta
última sólo se encarga de la seguridad en el medio informático, pero la
información puede encontrarse en diferentes medios o formas, y no solo
en medios informáticos.
La seguridad informática es la disciplina que se ocupa de diseñar las
normas, procedimientos, métodos y técnicas destinados a conseguir un
sistema de información seguro y confiable.
Puesto simple, la seguridad en un ambiente de red es la habilidad de
identificar y eliminar vulnerabilidades. Una definición general de
seguridad debe también poner atención a la necesidad de salvaguardar la
ventaja organizacional, incluyendo información y equipos físicos, tales
como los mismos computadores. Nadie a cargo de seguridad debe determinar
quien y cuando se puede tomar acciones apropiadas sobre un ítem en
específico. Cuando se trata de la seguridad de una compañía, lo que es
apropiado varía de organización a organización. Independientemente,
cualquier compañía con una red debe de tener una política de seguridad
que se dirija a conveniencia y coordinación.
La seguridad informática debe establecer normas que minimicen los
riesgos a la información o infraestructura informática. Estas normas
incluyen horarios de funcionamiento, restricciones a ciertos lugares,
autorizaciones, denegaciones, perfiles de usuario, planes de emergencia,
protocolos y todo lo necesario que permita un buen nivel de seguridad
informática minimizando el impacto en el desempeño de los trabajadores y
de la organización en general y como principal contribuyente al uso de
programas realizados por programadores.
La seguridad informática está concebida para proteger los activos informáticos, entre los que se encuentran los siguientes:
La infraestructura computacional: Es una parte fundamental para el
almacenamiento y gestión de la información, así como para el
funcionamiento mismo de la organización. La función de la seguridad
informática en esta área es velar que los equipos funcionen
adecuadamente y anticiparse en caso de fallas, robos, incendios, boicot,
desastres naturales, fallas en el suministro eléctrico y cualquier otro
factor que atente contra la infraestructura informática.
Los usuarios: Son las personas que utilizan la estructura
tecnológica, zona de comunicaciones y que gestionan la información. Debe
protegerse el sistema en general para que el uso por parte de ellos no
pueda poner en entredicho la seguridad de la información y tampoco que
la información que manejan o almacenan sea vulnerable.
La información: es el principal activo. Utiliza y reside en la infraestructura computacional y es utilizada por los usuarios. No solo las amenazas que surgen de la programación y el
funcionamiento de un dispositivo de almacenamiento, transmisión o
proceso deben ser consideradas, también hay otras circunstancias que
deben ser tomadas en cuenta e incluso «no informáticas». Muchas son a
menudo imprevisibles o inevitables, de modo que las únicas protecciones
posibles son las redundancias y la descentralización, por ejemplo
mediante determinadas estructuras de redes en el caso de las
comunicaciones o servidores en clúster para la disponibilidad.
Las amenazas pueden ser causadas por:
Usuarios: causa del mayor problema ligado a la seguridad de un
sistema informático. En algunos casos sus acciones causan problemas de
seguridad, si bien en la mayoría de los casos es porque tienen permisos
sobre dimensionados, no se les han restringido acciones innecesarias,
etc.
Programas maliciosos: programas destinados a perjudicar o a hacer un
uso ilícito de los recursos del sistema. Es instalado (por inatención o
maldad) en el ordenador, abriendo una puerta a intrusos o bien
modificando los datos. Estos programas pueden ser un virus informático,
un gusano informático, un troyano, una bomba lógica un programa espía o spyware, en general conocidos como malware.
Errores de programación: La mayoría de los errores de programación
que se pueden considerar como una amenaza informática es por su
condición de poder ser usados como exploits por los crackers,
aunque se dan casos donde el mal desarrollo es, en sí mismo, una
amenaza. La actualización de parches de los sistemas operativos y
aplicaciones permite evitar este tipo de amenazas.
Intrusos: persona que consiguen acceder a los datos o programas a los cuales no están autorizados (crackers, defacers, hackers, script kiddie o script boy, viruxers, etc.).
Un siniestro (robo, incendio, inundación): una mala manipulación o
una mala intención derivan a la pérdida del material o de los archivos.
Personal técnico interno: técnicos de sistemas, administradores de
bases de datos, técnicos de desarrollo, etc. Los motivos que se
encuentran entre los habituales son: disputas internas, problemas
laborales, despidos, fines lucrativos, espionaje, etc.
Fallos electrónicos o lógicos de los sistemas informáticos en general.
Existen diferentes tipos de ataques en Internet como virus, troyanos u
otros, dichos ataques pueden ser contrarrestados o eliminados pero hay
un tipo de ataque, que no afecta directamente a los ordenadores, sino a
sus usuarios, conocidos como “el eslabón más débil”. Dicho ataque es
capaz de conseguir resultados similares a un ataque a través de la red,
saltándose toda la infraestructura creada para combatir programas
maliciosos. Además, es un ataque más eficiente, debido a que es más
complejo de calcular y prever. Se pueden utilizar infinidad de
influencias psicológicas para lograr que los ataques a un servidor sean
lo más sencillo posible, ya que el usuario estaría inconscientemente
dando autorización para que dicha inducción se vea finiquitada hasta el
punto de accesos de administrador.
Tipos de amenaza
Existen infinidad de modos de clasificar un ataque y cada ataque
puede recibir más de una clasificación. Por ejemplo, un caso de phishing
puede llegar a robar la contraseña de un usuario de una red social y
con ella realizar una suplantación de la identidad para un posterior
acoso, o el robo de la contraseña puede usarse simplemente para cambiar
la foto del perfil y dejarlo todo en una broma (sin que deje de ser
delito en ambos casos, al menos en países con legislación para el caso,
como lo es España).
Amenazas por el origen
El hecho de conectar una red a un entorno externo nos da la
posibilidad de que algún atacante pueda entrar en ella,y con esto, se
puede hacer robo de información o alterar el funcionamiento de la red.
Sin embargo el hecho de que la red no esté conectada a un entorno
externo, como Internet, no nos garantiza la seguridad de la misma. De
acuerdo con el Computer Security Institute
(CSI) de San Francisco aproximadamente entre el 60 y 80 por ciento de
los incidentes de red son causados desde dentro de la misma. Basado en
el origen del ataque podemos decir que existen dos tipos de amenazas:
Amenazas internas: Generalmente estas amenazas pueden ser más serias que las externas por varias razones como son:
Si es por usuarios o personal técnico, conocen la red y saben cómo
es su funcionamiento, ubicación de la información, datos de interés,
etc. Además tienen algún nivel de acceso a la red por las mismas
necesidades de su trabajo, lo que les permite unos mínimos de
movimientos.
Los sistemas de prevención de intrusos o IPS, y firewalls
son mecanismos no efectivos en amenazas internas por, habitualmente, no
estar orientados al tráfico interno. Que el ataque sea interno no tiene
que ser exclusivamente por personas ajenas a la red, podría ser por
vulnerabilidades que permiten acceder a la red directamente: rosetas
accesibles, redes inalámbricas desprotegidas, equipos sin vigilancia,
etc.
Amenazas externas: Son aquellas amenazas que se originan fuera de la
red. Al no tener información certera de la red, un atacante tiene que
realizar ciertos pasos para poder conocer qué es lo que hay en ella y
buscar la manera de atacarla. La ventaja que se tiene en este caso es
que el administrador de la red puede prevenir una buena parte de los
ataques externos.
Amenazas por el efecto
El tipo de amenazas por el efecto que causan a quien recibe los ataques podría clasificarse en:
Robo de información.
Destrucción de información.
Anulación del funcionamiento de los sistemas o efectos que tiendan a ello.
Suplantación de la identidad, publicidad de datos personales o
confidenciales, cambio de información, venta de datos personales, etc.
Es un programa de computación que reúne características y comportamientos asimilables al de la inteligencia humana o animal.
La expresión "sistema inteligente" se usa a veces para sistemas inteligentes incompletos, por ejemplo para una casa inteligente o un sistema experto.
Un sistema inteligente completo incluye "sentidos" que le permiten recibir información de su entorno. Puede actuar, y tiene una memoria para archivar el resultado de sus acciones. Tiene un objetivo e, inspeccionando su memoria, puede aprender de su experiencia. Aprende cómo lograr mejorar su rendimiento y eficiencia.
Para que un sistema inteligente pueda ser considerado completo, debe incluir diversas funcionalidades que incluyan
Inteligencia: Hay muchas definiciones de "inteligencia". Para usos prácticos usamos esta: La inteligencia es el nivel del sistema en lograr sus objetivos.
Sistematización: Un sistema es parte del universo, con una extensión limitada en espacio y tiempo. Las partes del sistema tienen más, o más fuertes, correlaciones con otras partes del mismo sistema; que con partes fuera del sistema.
Objetivo: Un objetivo es una cierta situación que el sistema inteligente quiere lograr. Normalmente hay muchos niveles de objetivos, puede haber un objetivo principal y muchos sub objetivos.
Capacidad sensorial: Un sentido es la parte del sistema que puede recibir comunicaciones del entorno. Se necesitan los sentidos para que el sistema inteligente puede conocer su entorno y actuar interactiva mente.
Conceptualización: Un concepto es el elemento básico del pensamiento. Es el almacenamiento físico, material de información (en neuronas o electrones). Todos los conceptos de la memoria están interrelacionados en red. La capacidad de conceptualizar implica el desarrollo de niveles de abstracción.
Reglas de actuación: Una regla de actuación es el resultado de una experiencia o el resultado de interpretar la propia memoria. Relaciona situación y consecuencias de la acción.
Memoria: La memoria es un almacenaje físico de conceptos y reglas de actuación. Esto incluye la experiencia del sistema.
Aprendizaje: El aprendizaje es probablemente la capacidad más importante de un sistema inteligente. El sistema aprende conceptos a partir de la información recibida de los sentidos. Aprende reglas de actuación a base de su experiencia. La actuación, a veces hecha al azar, se almacena con su valor. Una regla de actuación aumenta en valor si permitió el logro de un objetivo. El aprendizaje incluye la fijación de conceptos abstractos, a base de ejemplos concretos y la creación de conceptos compuestos que contienen los conceptos de partes de un objeto. El aprendizaje también es la capacidad de detectar relaciones (patrones) entre la parte "situación" y la parte "situación futura" de una regla de actuación. Los seres humanos y animales son sistemas inteligentes naturales, y los sistemas artificiales tratan progresivamente de emular sus capacidades. Los sistemas inteligentes se caracterizan por su capacidad de adaptarse a situaciones cambiantes, capacidad que todavía no logran cabalmente los sistemas artificiales. La dificultad principal se encuentra en el desarrollo de la capacidad de aprendizaje.
Es un teléfono móvil que está siendo desarrollado por Nokia en colaboración con la Universidad de Cambridge en Gran Bretaña y que está basado en nanotecnologia. Nokia Morph será presentado en 2015.
El Nokia Morph sería un móvil flexible, que podría tanto estirarse como plegarse. De esta manera podría cumplir cómodamente sus muchas funciones: podría convertirse en un panel lo bastante grande como para ver un vídeo con una calidad importante o plegarse hasta entrar en bolsillos pequeños. Otra de las cosas interesantes de este dispositivo es que se limpiaría solo y sería semitransparente. Además, tendría muchas funciones extra que contribuirían a hacer que este dispositivo parezca salido de una película de ciencia ficción. Algunas de estas utilidades serían el poder analizar el aire cerca de alimentos u otros elementos para comprobar que estén en buen estado, o tomar diferentes colores para ajustarse al atuendo de quién lo usa de manera de convertirse en un elemento de moda. En conclusión, el Nokia Morph es un proyecto muy ambicioso. Este dispositivo parece tener el potencial para una nueva revolución en la tecnología de los móviles.
Lanzado junto con el Museo de Arte Moderno "Diseño y la Mente Elástica" exposición, el dispositivo concepto Morph es un puente entre las tecnologías muy avanzadas y sus posibles beneficios para los usuarios finales. Este dispositivo presenta un concepto revolucionario saltos siendo explorado por Nokia Research Center (NRC) en colaboración con el Centro de Nanociencia de Cambridge (Reino Unido) - tecnologías de nanoescala que potencialmente podrían crear un mundo radicalmente diferentes dispositivos que abren un espectro completamente nuevo de posibilidades
Recién habilitada con materiales flexibles y transparentes mezclar más a la perfección con la forma en que vivimos. Dispositivos de ser auto-limpieza y auto-preservación electrónica transparente que ofrece una estética completamente nueva dimensión. Construido en la absorción solar puede cargar un dispositivo, mientras que las baterías se hacen más pequeños, más duraderos y más rápido para cargar. Sensores integrados podría permitir a nosotros para aprender más sobre el medio ambiente que nos rodea, que nos posibilita tomar mejores decisiones.
Además de los avances anteriormente, la electrónica integrada se muestra en el concepto Morph podría costar menos y son más funcionalidad en un espacio mucho más pequeño, incluso como interfaces se simplifican y mayor facilidad de uso es. Todas estas nuevas capacidades desatará nuevas aplicaciones y servicios que nos permiten comunicarnos e interactuar en formas sin precedentes.
Flexible y Diseño Cambio
La nanotecnología permite que los materiales y componentes que son flexibles, elásticos, transparente y fuerte notablemente. proteínas fibrillas se tejen en una malla tridimensional que refuerza las estructuras elásticas delgadas. Usando el mismo principio detrás de seda de araña, esta elasticidad permite que el dispositivo, literalmente, cambiar formas y configurar para adaptarse a la tarea en cuestión.
Un diseño de plegado cabrían fácilmente en un bolsillo y podría prestarse ergonómicamente a ser utilizado como un teléfono tradicional. Un desplegado más grande de diseño puede mostrar información más detallada, e incorporar dispositivos de entrada como teclados y controles táctiles.
Incluso electrónica integrada, de las interconexiones con los sensores, podrían compartir estas propiedades flexibles. Además, la utilización de materiales biodegradables podrían hacer que la producción y el reciclaje de los dispositivos más fácil y ecológico.
Autolimpiable
La nanotecnología también se puede aprovechar para crear superficies auto-limpieza en los dispositivos móviles, en última instancia, reducir la corrosión, el desgaste y la longevidad de la mejora. Superficies nanoestructuradas, como "nanoflores" naturalmente repelen el agua, la suciedad, huellas dactilares e incluso utilizando los efectos también se observan en los sistemas naturales.
Fuentes de energía avanzada
Nanotecnología ofrece la posibilidad de que la superficie de un dispositivo se convertirá en una fuente natural de energía a través de una cubierta de "Nanograss« estructuras que la recolección de energía solar. Al mismo tiempo, nuevos materiales de alta densidad de almacenamiento de energía permita que las pilas a ser más pequeños y más delgados, al mismo tiempo más rápido para recargar y capaz de soportar más ciclos de carga.
La detección de Medio Ambiente
Nano sensores sería permitir a los usuarios examinar el entorno que les rodea en formas totalmente nuevas, desde el análisis de la contaminación del aire, para hacerse una idea de los rastros de bio-químicos y procesos. Las nuevas capacidades pueden ser tan compleja como ayudar a monitorizar la evolución de las condiciones en la calidad de nuestro entorno, o tan simple como saber si la fruta que estamos a punto de disfrutar se deben lavar antes de comerla. Nuestra capacidad de sintonizar con nuestro medio ambiente de esta manera nos puede ayudar a tomar decisiones clave que guían nuestras acciones diarias y en última instancia, puede mejorar nuestra salud.
Con Publisher 2013, puedes comunicar
fácilmente tu mensaje en una variedad de diferentes tipos de
publicaciones, lo que ahorra tiempo y dinero. Aunque no tengas
experiencia en diseño gráfico, lo mismo podrás producir resultados de
alta calidad cuando crees folletos, boletines informativos, tarjetas
postales, tarjetas de felicitación o boletines por correo electrónico.
Con Publisher 2013, termina tu trabajo correctamente a la primera.
Usa
las herramientas mejoradas de edición de imágenes, entre las que se
incluyen las herramientas para movimientos panorámicos, acercamientos y
encuadre de tus imágenes y marcadores, lo cual facilita reposicionar las
imágenes mientras se conserva el diseño de tu página.
Diseña y
reorganiza páginas como un profesional con la nueva tecnología de
alineación de objetos: guías visuales que te ayudan a alinear y
posicionar tu contenido sin esfuerzo.
Muestra una vista previa
de impresión a página completa con una serie de herramientas de diseño
de páginas y configuraciones ajustables de impresión con la nueva vista
Backstage.
Crea publicaciones dinámicas
en muy poco tiempo insertando y personalizando bloques prediseñados de
contenido, integrados en el producto o disponibles en la comunidad
Publisher, directamente desde Publisher 2013. Elige entre una variedad
de partes de páginas —como barras laterales e historias— así como
también calendarios, bordes, anuncios y mucho más.
Usa efectos
de apariencia profesional para texto, formas e imágenes, entre los que
se incluyen sombras suaves, reflejos y características de OpenType como
ligaduras y alternativas de estilo. Hasta puedes usar Publisher para
buscar en tus álbumes en línea de Facebook, Flickr y otros servicios y
agregar imágenes directamente al documento, sin tener que guardarlas
antes.
Importa todas tus imágenes en un solo lienzo y ponlas y sácalas de tu diseño con tan solo arrastrar y colocar. Esto se debe a que este editor ha sido históricamente menos querido o
deseado por parte de los centros gráficos o de impresión, en
comparación a las otras aplicaciones DTP recién mencionadas.
Además, su posición como una aplicación de «nivel de entrada» agrava
algunas de su limitaciones (sobre todo en sus versiones antiguas), como
las tipografías (fonts) no disponibles, o la imposibilidad de mostrar objetos incrustados (object embedding)
en otras computadoras (no obstante, Publisher provee de herramientas
para empaquetar múltiples archivos en un único archivo auto-extraíble, y
así lidiar con este problema). Algunas típicas características de una
aplicación de alto nivel de este tipo, como las transparencias, el
sombreado de objetos o la exportación directa a formato PDF no son funcionales o directamente no están soportadas (sobre todo, en las versiones más viejas del software).
Sin embargo, las versiones recientes del producto tienen una mayor
capacidad en relación a la separación y el procesamiento de varios
(niveles de) colores. Microsoft Publisher 2007 también incluye la capacidad para la exportación de archivos en formato PDF, con la posibilidad de incluir o incrustar (embed) las propias fuentes tipográficas dentro de ellos (garantizando así su fiel reproducción en computadoras que no tienen instaladas demasiadas fonts, particularmente aquellas que no son tan populares). No obstante, esta característica está disponible como una descarga (download) adicional desde el sitio web de Microsoft.
El formato de archivo propietario de Publisher no es soportado por la mayoría de las otras aplicaciones, con la única excepción de Adobe PageMaker No obstante, el plug-in PUB2ID (Publisher to InDesign) de Markzware's convertirá documentos de Publisher de sus versiones 2002 hasta 2007 a los formatos CS2 y CS3 de Adobe InDesign. Asimismo, Publisher soporta otros formatos como el EMF (Enhanced Metafile, «meta-archivo mejorado»), el cual está relativamente difundido en la plataforma Windows.
Publisher está incluido entre la gama alta de los programas de Microsoft Office.
Esto refleja el énfasis de Microsoft de posicionar su producto como una
alternativa relativamente barata a los dos «pesos pesados» de la
industria. También está enfocado al mercado de las pequeñas empresas,
las cuales usualmente no disponen de profesionales específicamente
dedicados al diseño y maquetación de páginas y documentos. Respecto del porqué el Publisher solamente tiene una muy pequeña
porción del mercado esto se debe exclusivamente a que se trata de un
segmento liderado por aplicaciones como ser dobe inDesign y QuarkXpress. El Publisher ha sido históricamente menor apreciado por los centros gráficos y de impresión en comparación a las aplicaciones que recién mencionábamos, por tanto, es que su participación en el mercado es realmente pequeña.
Pero esta no ha sido la única razón de su poca apreciación, sino que también el hecho de ser una aplicación de nivel de entrada empeora sus limitaciones,
especialmente en los casos de las versiones más antiguas, que por
ejemplo, no permiten ver disponibles algunas fuentes, no pueden mostrar
objetos incrustados en otras computadoras, transparencias, sombreados de
objetos y exportar directamente a formato PDF.
De todos modos, vale destacar, que las versiones más
recientes de Publisher, tales como Microsoft Publisher 2007 presentan
una mayor capacidad en lo que respecta a la separación y procesamientos
de varios niveles de colores, asimismo permite exportar
archivos en formato PDF con la posibilidad de incrustar las propias
fuentes tipográficas dentro de ellos, aunque ojo, esta aplicación
solamente se podrá descargar desde el sitio web.
A pesar de los contras y de los pros, Microsoft Publisher se
encuentra dentro de la lista de programas de alta gama de Microsoft
Office. Su uso es muy común y útil en las pequeñas empresas que no
suelen disponer de profesionales dedicados al diseño y la maquetación de
páginas y documentos.
Estudia el desarrollo de sistemas automatizados y el uso de los lenguajes de programación; de igual forma se enfoca al análisis, diseño y la utilización del hardware y software para lograr la implementación de las más avanzadas aplicaciones industriales y telemáticas.
Es el área de trabajo que se concentra en el estudio de situaciones
susceptibles de automatizar mediante el uso de sistemas de computación y
componentes digitales, a fin de determinar la factibilidad técnica, la
conveniencia operacional, la factibilidad económica y la evaluación de
alternativas existentes para desarrollar la solución más adecuada.
La ingeniería en computación se ocupa de la naturaleza y
características de la información, su estructura y clasificación, su
almacenamiento y recuperación y los diversos procesos a los que puede
someterse en forma automatizada. Se interesa igualmente por las
propiedades de las máquinas físicas que realizan estas operaciones para
producir sistemas de procesamientos de datos eficientes. Trata todo lo relacionado con la utilización de computadoras digitales.
La respuesta a las preguntas: ¿Qué es lo que puede ser eficientemente
automatizado? y ¿Cómo se puede lograr eso de la mejor manera, en base a
los recursos disponibles?. compete a la ingeniería en computación.
Origen
La historia de la computación puede remontarse a cientos de años atrás, cuando se creaban máquinas para ayudar en tareas de cálculos (como el ábaco). La primera calculadora mecánica fue creada en 1623 por Wilhelm Schickard, y Charles Babbage
diseñó la máquina diferencial en la época victoriana. Todas las
máquinas que se limitaban a realizar una sola tarea, o como mucho, algún
subconjunto de todas las posibles tareas.
Las nuevas y poderosas computadoras comenzaron a ser desarrolladas durante la década de los 40, que es también cuando comenzó a hacerse evidente que las computadoras podían usarse para mucho más que simples cálculos matemáticos.
La masificación de la computación llegó de la mano de las computadoras personales a principios de los 80, y el acceso a la información mundial de la mano de internet, que comenzó su éxito en los 90.
Las ciencias de la computación
tiene sus orígenes en 1920, cuando la palabra «computación» hacía
referencia a los cálculos generados por la propia persona. Luego, con la
llegada de las computadoras, la historia y el significado de este concepto se amplió, distinguiendo los algoritmos que forman parte del desarrollo de las soluciones.
Perfil profesional
El ingeniero en computación representa una nueva perspectiva en el campo laboral, ya que abarca distintos aspectos de la electrónica y la informática. Sus funciones involucran de forma directa o indirecta el uso del computador, siendo ésta su herramienta fundamental de trabajo.
En el área del hardware, podrá utilizar y adaptar el computador como una herramienta para el control de procesos industriales, realizando interfaces entre el sistema y el computador,
de modo que sea posible el monitoreo de las tareas en tiempo real.
Asimismo, estará dotado de un amplio conocimiento sobre sistemas
automatizados basados en robótica,
pudiendo diseñar circuitos de lógica digital para liberar al hombre de
la realización de tediosos procesos repetitivos o de actividades que
impliquen un riesgo para su vida.
Los ingenieros en computación son capaces de aplicar la tecnología
de avanzada en la solución de los problemas y estrategias gerenciales,
con el fin de utilizar todos los recursos eficazmente. Emplea sus
conocimientos como herramienta para crear y modificar sistemas
cibernéticos, además de evaluar, modificar, diseñar, actualizar y
supervisar los sistemas de operación a fin de ofrecer óptimo servicio en
cumplimiento de las necesidades ocasionadas por la dinámica de las
organizaciones.
Es un profesional preparado en las áreas correspondientes a estructuras y sistemas de computación, estructuras y procesos de información, investigación operativa y modelos matemáticos.
Los ingenieros en computación tienen un entrenamiento extensivo en áreas de Ingeniería Eléctrica y ciencias en computación,
que son combinaciones atractivas para los futuros contratantes y
permiten al estudiante continuar sus estudios en instituciones de postgrado.
Campo laboral
El ingeniero en computación es un profesional capaz de actuar
productivamente en equipos multidisciplinarios, donde demuestra
habilidades para la autogestión y la cogestión, además de una conducta
de liderazgo empresarial. Puede desempeñarse en las siguientes áreas:
Empresas, industrias e instituciones públicas y privadas que cuenten
con o deseen implantar sistemas computarizados de información y control
Compañías para el servicio y mantenimiento de software y hardware para sistemas de información y equipos de computación.
Industrias con aplicación de la robótica
Empresas de apoyo y soporte tecnológico para las telecomunicaciones
Corporaciones nacionales e internacionales especializadas en la instalación de redes de computadores a gran escala
Compañías de diseño, prograbación e implementación de software
Compañías asesoras de control de procesos industriales computarizados
Firmas y fundaciones públicas y privadas de investigación científica y tecnológica
Compañías productoras de bienes de consumo masivo
Empresas asociadas a la Ingeniería en Computación
Compañías petroleras e industrias en general
Instituciones de educación superior
El ingeniero en computación puede desempeñarse en muchas áreas,
debido a la gran flexibilidad que tiene la profesión; y es por esta
razón que prácticamente cualquier organización de pequeña, mediana o
mayor escala es una fuente de empleo para estos profesionales.
Es la aplicación de ordenadores y equipos de telecomunicación para almacenar, recuperar, transmitir y manipular datos, con frecuencia utilizado en el contexto de los negocios u otras empresas. El término es comúnmente utilizado como sinónimo para los computadores, y las redes de computadoras pero también abarca otras tecnologías de distribución de información,
tales como la televisión y los teléfonos. Múltiples industrias están
asociadas con las tecnologías de la información, incluyendo hardware ysoftware de computador, electrónica, semiconductores, internet, equipos de telecomunicación, e-commerce y servicios computacionales.
Los humanos han estado almacenando, recuperando, manipulando y comunicando información desde que los sumerios en Mesopotamia desarrollaran la escritura cerca del 3000 a. C., pero el término tecnología de la información en su significado moderno hizo su primera aparición en 1958 en un artículo publicado en la revista Harvard Business Review;
sus autores Harold J. Leavitt y Thomas L. Whisler comentaron que “la
nueva tecnología no tiene aún un nombre establecido. Deberíamos llamarla
tecnología de la información (TI)”. Su definición consistía en tres
categorías: técnicas de procesamiento, la aplicación de métodos
estadísticos y matemáticos para la toma de decisión, y la simulación del
pensamiento de orden superior a través de programas computacionales.
Basándose en la tecnología de almacenamiento y procesamiento
empleada, es posible distinguir cuatro eras del desarrollo de TI:
pre-mecánica (3000 a. C.-1450 d. C.), mecánica (1450-1840),
electromecánica (1840-1940) y electrónica (1940-al presente).
Historia de la informática
Se han sido utilizados dispositivos para asistir a la computación durante miles de años, iniciando probablemente con el palo tallado. El mecanismo de anticitera, que data cerca del comienzo del primer siglo a. C., es considerado generalmente como la computadora análoga
más antigua descubierta, y el más antiguo mecanismo de engranaje.
Dispositivos de engranaje comparables no surgieron en Europa hasta el
siglo XVI, y no fue hasta 1645 cuando se inventó la primera calculadora
mecánica capaz de realizar las cuatro operaciones aritméticas básicas.
Las computadoras electrónicas, usando tanto relés como válvulas, comenzaron a aparecer a comienzos de la década de 1940. La electromecánica Zuse Z3, terminada en 1941, fue la primera computadora programable del mundo, y, según los estándares modernos, una de las primeras máquinas que podrían ser consideradas de cómputo completa. Colosuss,
desarrollada durante la Segunda Guerra Mundial para desencriptar
mensajes alemanes, fue la primera computadora electrónica digital.
Aunque era programable, no era de uso general, habiendo sido diseñada
para realizar una única tarea. Carecía además de la capacidad de
almacenar su programa en una memoria; su programación se realizaba
usando enchufes e interruptores para alterar su cableado interno. La
primera computadoras de programas almacenados electrónica digital reconocible fue la Máquina Experimental de Pequeñas Cosas de Mánchester
(SSEM por su nombre en inglés: Manchester Small-Scale Experimental
Machine), que ejecutó su primer programa el 21 de junio de 1948.
El desarrollo de los transistores a finales de la década de 1940 en los Laboratorios Be
permitió una nueva generación de computadoras diseñadas con un consumo
de energía reducido considerablemente. La primera computadora de
programa almacenado disponible comercialmente, la Ferranti Mark I,
contenía 4050 válvulas y tenía un consumo energético de 25 kilowatts.
En comparación, la primera computadora transistorizada, desarrollada en
la Universidad de Manchester y operacional en noviembre de 1953,
consumía solo 150 watts en su versión final.
Almacenamiento de datos
Las primeras computadoras electrónicas, como la Colossus, hacían uso de cintas perforadas,
una larga tira de papel en donde los datos son representados por una
serie de agujeros, una tecnología ahora obsoleta. El almacenamiento
electrónico de datos usado por las computadoras modernas data de la
Segunda Guerra Mundial, cuando una forma de memoria de línea de retardo fue desarrollada para eliminar el desorden de las señales de radar;
la primera aplicación práctica de esto fue la línea de retardo de
mercurio. El primer dispositivo de almacenamiento digital de acceso aleatorio fue el Tuvo Williams, basado en un tuvo de rayos cátodicos
estándar, pero la información almacenada en ella y en la memoria de
línea de retardo era volátil, por lo que debía ser continuamente
refrescada, y por lo tanto se perdía una vez que se desconectaba de la
energía. La primera forma de almacenamiento computacional no volátil fue
la memoria de tambor, inventada en 1932 y usada en la Ferranti Mark I, la primera computadora de uso general disponible comercialmente.
IBM introdujo el primer disco duro en 1956, como un componente de su sistema computacional 305 RAMAC.
La mayoría de los datos digitales al día de hoy son almacenados
magnéticamente en discos duros, u ópticamente en medios como los CD-ROMs.
Hasta 2002, la mayoría de la información era almacenada en dispositivos
analógicos, pero ese año la capacidad de almacenamiento digital superó
al analógico por primera vez. En 2007 cerca del 94 % de los datos
almacenados mundialmente eran digitales: 52 % en discos duros, 28 % en
medios ópticos y 11 % en cintas magnéticas digitales. Se ha estimado que
la capacidad mundial de almacenamiento de información en dispositivos
electrónicos creció de menos de 3 exabetys en 1986 a 295 exabytes en 2007, doblándose aproximadamente cada tres años.
Bases de datos:
Los sistemas de administración de bases de datos surgieron en la
década de 1960 para abordar el problema de almacenar y recuperar grandes
cantidades de datos de manera precisa y rápida. Uno de los primeros
sistemas fue el Information Management System de IBM, el cual sigue siendo ampliamente implementado más de 40 años después. El IMS almacena datos jerárquicamente, pero en la década de 1970, Ted Codd propuso como alternativa los modelos de almacenamiento relacionales basándose en la teoria de conjuntos y en la lógica de predicados y en conceptos familiares como lo son las tablas, filas y columnas. El primer sistema de gestión de bases de datos relacionales (RDBMS del inglés: Relational Database Management System) comercial disponible fue el de Oracle en 1980.
Todos los sistemas de administración de bases de datos consisten en
un número de componentes que juntos permiten que los datos que ellos
almacenan sean accedidos simultáneamente por varios usuarios mientras
mantienen su integridad. Una característica de todas las bases de datos
es que la estructura de los datos que contienen es definido y almacenado
de manera separada de los datos mismos, en el llamado esquema de la base de datos.
El lenguaje de marcas extensible o XML, siglas en inglés de eXtensible Markup Language,
se ha vuelto un formato para la representación de datos popular en los
últimos años. Aunque los datos XML pueden ser almacenados en sistemas de archivos
normales, son comúnmente usados en bases de datos relacionales para
aprovechar su “aplicación robusta verificada durante años por esfuerzos
tanto teóricos como prácticos”. Como una evolución del Estándar de
Lenguaje de Marcado Generalizado o SGML, las estructuras basadas en texto XML ofrecen la ventaja de poder ser leídas por máquinas como por humanos.