viernes, diciembre 10, 2010

Los orígenes de la Bioinformática (IV): the rise of the machines

(Para los que sois nuevos en este blog, ésta es la cuarta entrega de una serie de entradas basadas en el material aportado por David, que es un artículo en Nature Reviews Genetics del año 2000 de Joel B. Hagen, titulado “The origins of bioinformatics”.)

Tras las 3 entregas anteriores, donde hemos visto cómo se descubrían y establecían algunos de los paradigmas sobre los que se sostiene la biología molecular moderna, todavía os estaréis preguntando “Éste es un blog de Bioinformática. ¿Y cuando salen los ordenadores?”. Pues ha llegado el momento de escribir sobre cómo se empezó a introducir el uso de los ordenadores, y cómo empezó a nacer la biología computacional.

A finales de los años 50 el mundo académico (en Estados Unidos, se entiende) empezó a tener acceso no restringido a los ordenadores, que hasta ese momento sólo habían tenido un uso militar. De todos los descubrimientos de esa época en el área de las ciencias de la vida, sólo se puede decir que los ordenadores tuvieron un papel determinante en la resolución de la estructura tridimensional de la mioglobina en 1957 (mediante la técnica de cristalografía de rayos X). Estos ordenadores estaban basados en válvulas de vacío, y se programaban a bajo nivel (no se podían reutilizar los programas), pero ayudaron a comenzar el desarrollo de técnicas computacionales y de desarrollo de software en el mundo académico.

IBM 7090

Ya a principios de la década de 1960 había un acceso casi generalizado en el mundo académico a los ordenadores. Algunas universidades empezaron a comprar ordenadores de segunda generación, basados en transistores, que además empezaban a llevar lenguajes de alto nivel. El primer lenguaje en alto nivel disponible fue FORTRAN, que fue desarrollado inicialmente por IBM para sus máquinas, lo cuál permitió que se pudiera empezar a reutilizar los programas desarrollados en otros ordenadores con arquitecturas diferentes.

Y aquí entra en juego Margaret Oakley Dayhoff (sitio oficial http://www.dayhoff.cc/), una de las pioneras de la Bioinformática. Ella comenzó con una preparación en química cuantitativa y matemáticas, y alrededor de los años 60 empezó a estar interesada en el mundo de las proteínas y la evolución molecular. Tuvo un buen punto de partida para sus intereses científicos, al ser en aquella época directora asociada de la recién creada National Biomedical Research Foundation, una fundación interesada en la promoción y aplicación de las técnicas computacionales para ayudar en la investigación médica. Margaret Dayhoff empezó a explorar las distintas técnicas matemáticas para analizar los ya crecientes datos de secuencias de aminoácidos.

Margaret Dayhoff, 1951, antes de dedicarse a la BioinformáticaA lo largo de sus investigaciones recibió fondos de NIH (National Institutes of Health), NSF (National Science Foundation), NASA (National Aeronautics and Space Administration) y la corporación IBM. Estas investigaciones se movían en varios frentes, de los cuáles el primero fue la escritura de una serie de programas en FORTRAN para determinar la secuencias de aminoácidos de las moléculas de proteínas. Estos programas tomaban fragmentos de péptidos obtenidos de la digestión parcial de una proteína, y calculaban todas las posibles secuencias compatibles con los ensamblajes de esos péptidos. Estos programas servían para resolver el mismo puzzle que tuvieron que resolver a mano durante varios meses los equipos que secuenciaron la ribonucleasa o la insulina, con la diferencia de que sus programas fueron capaces de llegar a la solución correcta en unos pocos minutos para la ribonucleasa.

Margaret Dayhoff no fue la única en su época dedicada a la creación de estos primeros programas de ensamblaje. Todos los investigadores que trabajaban en aquella época en este campo se dieron inmediatamente cuenta de que la misma metodología se podrían aplicar al ensamblaje de secuencias genómicas cuando las técnicas experimentales estuvieran disponibles.

Los programas de análisis de secuencias en aquella época siguieron los principios introducidos por el analizador automático de aminoácidos de Stein y Moore. Tanto los programas como el aparato estaban enfocados en recopilar rápidamente una biblioteca de secuencias que pudiera ser usada en estudios de bioquímica comparativa y evolución molecular. Y para promocionar este objetivo, Dayhoff fundó el Atlas of Protein Sequence and Structure (atlas de secuencia y estructura de proteínas), una publicación anual que intentaba catalogar todas las secuencias de aminoácidos conocidas. De forma muy rudimentaria, ésta fue la primera base de datos de información sobre biología molecular, y se convirtió en el recurso indispensable para las primeras investigaciones computacionales.

Con el paso del tiempo (y la creación de internet y la web) esta publicación evolucionó hasta convertirse en 1983 en una de las principales bases de datos online, PIR (the Protein Information Resource). Se convirtió en un importante punto de partida, y un referente para la creación de otras bases de datos basadas en información molecular.

Fuente Madridasd

Los orígenes de la Bioinformática (III). Sabemos que llevan información, pero ¿cuál?

Una vez que quedó demostrado que las proteínas eran secuencias de aminoácidos donde importaba el orden de los mismos, y que se empezó a secuenciar cada vez más proteínas, el repositorio de información asociado a las proteínas secuenciadas empezó a crecer poco a poco, pero todavía no se habían establecido las correspondencias entre el código genético (el ADN, compuesto de nucleótidos) y las proteínas (compuestas de aminoácidos), ni entre la secuencia de una proteína y su estructura y funcionalidad.

Correspondencias entre ADN, espacio de proteínas, espacio de estructuras de proteínas y función de proteínasA finales de 1950 los experimentos realizados por Christian Anfinsen y sus colaboradores mostraron que, una vez desnaturalizada la ribonucleasa (vamos, que perdió su conformación tridimensional y se quedó hecha un hilo), volvía a recuperar de forma espontánea su conformación tridimensional. Con ello quedó asentado el concepto de que la estructura tridimensional de una proteína está determinada única y exclusivamente por su secuencia de aminoácidos.

El problema bioinformático que hasta día de hoy no está resuelto de forma general es el de cómo calcular esa estructura tridimensional de la proteína a partir de la secuencia de aminoácidos. Dado que a nivel experimental es muchísimo más fácil secuenciar una proteína que obtener su estructura tridimensional mediante cristalografía de rayos X o resonancia magnética nuclear, la resolución del problema a nivel bioinformático simplificaría mucho la tarea en otras áreas. La estructura de una proteína determina su funcionalidad y participación en el metabolismo de los organismos, y proteínas con estructuras similares juegan papeles similares. Aunque dos proteínas con secuencias muy parecidas tienen siempre estructuras muy parecidas (y por tanto, funcionalidades muy parecidas), dos proteínas con secuencias distintas también pueden tener estructuras similares (por convergencia evolutiva) y por ello funcionalidades parecidas.

Y en la próxima entrega, la aparición de la biología computacional.

Fuente Madridasd

Los orígenes de la Bioinformática (II) Las macromoléculas llevan información

El concepto de que las proteínas (que a fin de cuentas son macromoléculas) contienen información que está codificada en forma de secuencias lineales de aminoácidos lleva mucho tiempo totalmente aceptado por la comunidad científica, y es la piedra angular de toda la bioinformática clásica. Pero esto no fue siempre así, teniendo que remontarnos a los años posteriores a la Segunda Guerra Mundial para encontrar las primeras pruebas empíricas de esta idea. El bioquímico Emil Smith (que no lo debéis confundir con Temple Smith, del algoritmo Smith & Waterman) describió este periodo como “heroico” para la bioquímica de proteínas. El periodo heroico comprendería desde 1945 a 1955, cuando fue publicada la secuencia completa de la insulina gracias al esfuerzo de Frederick Sanger (sí, el que da nombre al Sanger Centre) y sus colaboradores.

Hipótesis alternativa de la estructura de proteínas
Hipótesis alternativa de la estructura de proteínas, del periodo heroico

Resumiendo mucho la historia, Frederick Sanger tomó como base el postulado (ahora teoría) sobre polipéptidos en la estructura de las proteínas. Este postulado, formulado inicialmente en 1902, generó mucho escepticismo en la comunidad científica, siendo más aceptadas las hipótesis alternativas (que en su época parecían más creibles). Algunas de ellas están reflejadas en la figura que he puesto. Una de ellas postulaba que las proteínas eran una especie de coloides amorfos, sin estructura definida, y que los polipéptidos se generaban al desnaturalizarse esos coloides. Otra promovía la idea de que las proteínas tenían forma de mallas con estructuras de celdas de colmena, tan típicas del anillo de benceno y los compuestos aromáticos. Y la última de la figura refleja una idea similar, pero no igual, en la que se consideraba la linealidad de la proteína incluso a nivel estructural, donde se consideraba que era una macromolécula periódica compuesta por repeticiones de de cadenas de aminoácidos.

Las técnicas experimentales habían mejorado ostensiblemente en las décadas de 1930 y 1940, pero antes del trabajo del equipo de Frederick Sanger no se sabía apenas nada sobre la posición específica o el orden de cada aminoácido en la proteína, o de su estructura. La resolución y publicación de la secuencia de aminoácidos de la insulina permitió descartar todas las hipótesis erróneas y comprobar a la idea básica de que las proteínas están compuestas de aminoácidos, que esos aminoácidos tienen un orden lineal (secuencia o estructura 1D), y que esos aminoácidos en ese orden específico determinan la estructura de la proteína (estructuras 2D y 3D). El trabajo experimental que condujo a la obtención de la secuencia de la insulina (de sólo 51 aminoácidos) fue bastante arduo, porque requería de químicos muy experimentados en la degradación de las proteínas fueran capaces de determinar de forma muy precisa en qué estado de degradación se encontraban las muestras, e ir controlando esa degradación.

Pero al mismo tiempo otros bioquímicos estaban desarrollando métodos más refinados, como la reacción de degradación de Edman, que permitió ir quitando de una cadena peptídica pequeña uno a uno sus aminoácidos, de forma secuencial. Esta nueva técnica permitió semiautomatizar todo el proceso, lo cuál fue una revolución para el mundo de la biología molecular. Por ejemplo, con esta nueva técnica la secuenciación de la ribonucleasa (realizada por el equipo coordinado por Stanford Moore y William Stein del Instituo Rockefeller), una proteína de 124 aminoácidos, llevó la mitad de tiempo que la obtención de la secuencia de la insulina.

A finales de la década de 1960 Pehr Edman consiguió automatizar por completo todo el proceso con su “sequenator”, lo cuál hizo que muchos grupos de biología molecular hicieran crecer la cada vez mayor biblioteca de secuencias de proteínas. Sin estos primeros esfuerzos y entonces nuevas técnicas experimentales habría sido muy difícil que nacieran las bases de datos de secuencias, o que se hubiera si quiera soñado en proyectos de secuenciación del genoma completo de un organismo. Y sin ello la bioinformática, la biología molecular y muchas otras disciplinas relacionadas con las ciencias de la vida posiblemente serían muy diferentes.

Fuente Madridasd

Los orígenes de la Bioinformática (I) La semilla

Desde hace unos meses tengo en la recamara de las publicaciones material relacionado con los origenes del EBI (gracias a Graham Cameron) y de la bioinformática en general (gracias a David G. Pisano). En este artículo empezaré a desgranar parte del material aportado por David, que es un artículo en Nature Reviews Genetics del año 2000 de Joel B. Hagen, titulado “The origins of bioinformatics”.

Al principio la bioinformática no existía de la forma como la conocemos a día de hoy. No se había secuenciado el genoma de ningún organismo, ni había grandes bases de datos, ni text-mining, ni algoritmos de alineamiento de secuencias… Estoy hablando de los años 60, cuando empezaban a acumularse datos de la bioquímica de las proteínas. En aquella época el término más usado por los pioneros de la nueva disciplina en la que se usaban los ordenadores para ayudar a resolver problemas y enigmas biológicos era el de biología computacional, que a día de hoy se sigue empleando.

Hitos tempranos en la secuenciación de proteínas y péptidos¿Qué factores iniciaron el desarrollo de la biología computacional hacia lo que hoy conocemos como bioinformática? Uno de ellos fue la creciente colección de secuencias de aminoácidos y de estructuras de proteínas resultas, y el planteamiento de nuevos problemas que sólo podían ser resueltos gracias a la potencia de cálculo de los ordenadores. Otro, tal vez el más determinante, fue que el marco conceptual de la biología molecular empezó a incluir la idea de que las macromoléculas portan información, lo cuál hizo que cambiara la forma de pensar de muchos científicos. Desde ese momento dos disciplinas aparentemente no relacionadas como la biología molecular y la teoría de la información (una rama de la matemática) empezaron a estar ligadas entre sí. Y por último, la potencia computacional de los ordenadores desarrollados desde la Segunda Guerra Mundial con fines militares empezó a estar al alcance de los científicos fuera del ámbito militar. Obviamente no había una disponibilidad como la actual, en la que una persona puede tener en su bolsillo la potencia de un superordenador de aquella época, pero no estaba tan restringido el acceso.

Fuente Madridasd

lunes, octubre 25, 2010

Espacio de direcciones IPv4 restantes cae por debajo de 5%

Muchos de nosotros quizá no manejemos los detalles técnicos que implica la migración a IPV6 o reemplazo total de IPV4.

Por eso busqué algún recurso sencillo que explica cómo funciona IPV6, y lo encontré pero en idioma inglés: IPV6 for dummies.

Me permito traducir libremente el apartado sobre diferencias entre uno y otro:

"¿Cuál es la diferencia entre IPv4 e IPv6?

  • El cambio más obvio es el espacio de direcciones mucho más grande, que era la razón de conducir el desarrollo de IPv6 en el primer lugar.
  • La nueva dirección cuenta con 128 bits, que ofrece un montón de direcciones IP para todos y todos los dispositivos que pueda necesitar una dirección IP en el futuro.
  • IPv6 tiene mecanismos de configuración automática que significa que los ingenieros de red pueden instalar plug and play máquinas sin necesidad de configurar direcciones IP.
  • IPv6 tiene extensiones para la autenticación y privacidad."

Si la adopción de IPV6 se hace crítica, alguien que entienda mas del tema podría explicarnos cuál es la fecha tentativa de adopción y qué implica para un/a usuario o usuaria común y corriente como nosotros.

miércoles, agosto 25, 2010

La realidad de los Ingenieros que buscan trabajo en Bolivia

Estos últimos 3 días estuve evaluando la situación de los Ingenieros (Industriales, de Sistemas, Mecánicos, Civiles, Químicos, de Alimentos, etc) que no llevan más de 5 años que se titularon y lastimosamente aún buscan trabajo en Bolivia, para ser más específico en Cochabamba, tierra del Chicharrón y el Pique a lo Macho.

Ingeniero Titulado

Pronto serás un profesional

Estudiaste una carrera de Ingeniería durante 5 años, leyendo libros, rendiste exámenes, cursaste todo tipo de laboratorios, asististe a conferencias y cursos de capacitación extracurricular, madrugaste para tus clases en invierno y te trasnochaste realizando trabajos en grupo. ¡Hey! incluso fuiste ayudante Ad Honoren de alguna materia o de algún laboratorio de computación. Claro todo esto gratis, porque a cambio tienes un felíz ideal que ese cartón extra engrosará tu Curriculum Vitae y por consiguiente tus oportunidades de triunfar en la vida y ganar buen dinero.

Estuviste de 6 a 8 meses explotado dentro una empresa para poder realizar tu tema de tesis. Generalmente los Ingenieros que realizan tesis primero están 6 meses realizando todo tipo de tareas ajenas a la tesis y una vez que algún gerente se apiada recién deciden enfocarse en el tema olvidado que iba a servir de tesis, en algunos casos es necesario buscar un nuevo tema. Dije explotado, porque no te pagan nada por los meses que trabajas sellando tarjeta y quedándote horas extras. Todo sea por el preciado cartón que diga Licenciado en Ingeniería. Es obvio que una vez que termines tu gestión y aunque saques 100 en tu Tesis con Honores, no te contratarán, buscarán a otro tesista que les haga todo gratis a cambio del preciado cartón.

Eres un Ingeniero que se graduó con Honores, pero estas en una larga fila de desempleados. Si no tienes amistades o familiares con cargos elevados dentro una Empresa o Industria, sólo te queda ir a buscar empleo mediante lo más valioso que un profesional puede tener, ganas de trabajar y de aplicar los conocimientos adquiridos. ¿Dónde? En los anuncios que se publican en el periódico.

Prestigiosa Empresa busca a Ingeniero

Estas son las palabras con que todo anuncio de trabajo inicia: Prestigiosa Empresa busca a [título de alguna profesión] . No te dicen que empresa es, todas son prestigiosas o internacionales. No te dan dirección ni datos, sólo una casilla de correo o un e-mail del tipo prestigiosaempresa@hotmail.com (WTF) para que envíes tus datos. ¿Es que acaso les da vergüenza admitir que necesitan de un nuevo profesional en su fuerza laboral?. Cuando YouTube, IBM, Shell, Google o Yahoo necesitan de jóvenes profesionales, lo publican en todos los medios posibles. Nunca entenderé este anonimato.

Además no te dicen cual es el sueldo que pretenden remunerar por dicha oferta de empleo, por lo contrario, te piden que cuando les escribas y envíes tu Curriculum Vitae (CV) les indiques cuáles son tus pretensiones salariales. Eso sí, exigen profesionalidad, ganas de superarse y de trabajar bajo presión.

Ingenieros mandan peticiones de trabajo

Tengo en mi poder como 31 cartas y CVs de Ingenieros que buscan ingresar a trabajar a una empresa que publicó anónimamente su solicitud en el periódico local, en este mes.

En una rápida leída de los datos, la mayoría es gente sobresaliente. Todos tienen el título de Ingeniero, algunos se han graduado con Honores. Presentan una buena formación académica, manejan una gran cantidad de software adicional (MatLab, SolidWorks, Simulador Taylor, Java, File Marker, Office, Flash, Autocad, SPSS). Todos hablan inglés y uno que otro Francés. Han estado como en 5 empresas anteriormente, pero con periodos de 3 a 4 meses (serán pasantías). Han asistido como a 20 conferencias, seminarios y cursos extracurriculares. Algunos han realizado algún curso de Post-Grado en Chile o España.

Todos tienen ambición de trabajar en un puesto donde pongan en práctica todos los conocimientos y habilidades adquiridos hasta el momento. Se consideran personas Pro-activas con potencial de liderazgo, creatividad, innovación y dinamismo, tienen la capacidad de planificación, relación y facilidad de trabajo en equipo, con potencial de liderazgo.

Generalmente presentan una carta que dice:

A través de la presente me dirijo ante ustedes; para hacerles conocer mi sincero deseo de ingresar y formar parte del selecto personal con que cuenta su prestigiosa entidad y tengo a bien solicitar a ustedes me den la oportunidad de demostrar mi capacidad, eficiencia y deseos de superación alcanzando objetivos y metas.

Estadísticas del grupo

He promediado la pretensión Salarial y las edades, obteniendo los siguientes resultados:

Universo: 31 personas
Pretensión Salarial Promedio: 1992 Bs. = 249 $US
Edad Promedio: 28 años

Pretensión Salarial Mínima: 900 Bs. = 112 $US (27 años)
Pretensión Salarial Máxima: 3600 Bs. = 450 $US

Edad Mínima: 22 años (2000 Bs. = 250 $US)
Edad Máxima: 35 años (1500 Bs. = 187 $US) (PostGrado en España)

Un 70% presenta estudios adicionales para la implementación de la Norma ISO 9001:2000 en industrias y empresas.

La verdad es irónico leer que tienen ambición y deseos de superación si se conforman con pedir este tipo de sueldos.

Reflexión

Los estudios y la capacidad se encuentran en todos nuestros profesionales. El problema esta en la predisposición de una empresa en reconocer estos puntos con sueldos justos. El Ingeniero esta acostumbrado a recibir un sueldo de 150 a 300 $US, y no puede aspirar a más.

Esto no alcanza para pagar un módico alquiler, agua, luz y comida. Por más barata que se la vida en Cochabamba. Puedo asegurar que de ese monto se van unos 30- 50 $US en transporte público.

Se ve que cuanto más reciente saliste de la Universidad, es más probable que entres a trabajar a una empresa por 150 o 200 $US como Ingeniero Junior (= explotado sin pena por no tener experiencia). Tal ves a tus 35 aspires a ganar 300 o 400 $US, si se muere algún gerente, y así al fin puedas salir de vivir con tus suegros y tengas una pequeña casa propia.

Mientras tanto en USA, buscan contratar a los egresados más recientes de las carreras, quienes disfrutaran de los mejores sueldos, especialmente en informática, ya que cuentan con los conocimientos más actuales que profesionales de años anteriores.

Esta es una causa del porque Bolivia sufre a diario de la emigración de profesionales capacitados. No tenemos falta de fuentes de trabajo, sino sueldos irrisorios.

Fuente aeromental

miércoles, agosto 11, 2010

Desvelan la solución universal al cubo de Rubik: 20 movimientos

Con la ayuda de una supercomputadora de Google



Desvelan la solución universal al cubo de Rubik: 20 movimientos



Europa Press | Madrid



La solución ha traído de cabeza a millones de personas en todo el

mundo. El cubo de Rubik se convirtió en los años ochenta en uno de los

juegos de entretenimiento más populares, un desafío que muchos nunca

no han logrado completar.

- - - - -



Durante los últimos 15 años, la solución al cubo 'clásico' de Rubik

parecía estar en un mínimo de 18 movimientos, aunque no había certeza

respecto a la cifra definitiva. Ahora, unos investigadores de la

Universidad de Kent han anunciado el número "final", gracias a la

ayuda de Google: 20 movimientos, ni uno más.



Así, los investigadores determinaron que existen más de 100.000

posiciones iniciales del cubo y las soluciones, en su mayoría, no

pueden requerir más de 15 y 19 movimientos. Sin embargo, algunas

combinaciones obligan a realizar 20 giros, lo que ha sido bautizado

como 'el número de Dios'.



El profesor Davidson, responsable de la investigación, explicó que, a

día de hoy, la cifra mínima de movimientos era sólo una creencia,

puesto que nadie había podido demostrar ese tope. Por ello, decidió

iniciar este proyecto con las sospechas de que cualquier jugador

necesitaría al menos 21 giros de cubos interiores, según recoge

'Portaltic'.



Para facilitar el trabajo, Davidson y compañía decidieron dividir

todas las posibilidades en 2.200 millones de grupos, cada uno con

20.000 millones de posiciones distintas. Al principio, descartaron

todas aquellas opciones que podrían duplicarse y usaron también

"simetría" para reducir combinaciones "similares".

La supercomputadora de Google



Así, el equipo británico consiguió reducir las opciones iniciales

hasta 56 millones de posibles combinaciones, si bien necesitaban

reducir aún más esta cifra. Debido a la cantidad de tiempo que

requerirían los ordenadores habituales, decidieron pedir ayuda a

Google.



"Todavía no sabemos qué maquinaria utilizaron", reconoció Davidson,

aunque para el proceso era necesario la participación de una súper

computadora. Tras los resultados de Google, los investigadores se

mostraron convencidos de que 20 era el 'número de Dios' ya que las

opciones de solucionarlo en más movimientos "cayeron a dígitos

mínimos".



"Se ha cerrado un círculo para mí, que comenzó con uno de los iconos

de los años 80, el cubo de Rubik", reconoció el investigador. Los

resultados iniciales de la investigación ya han sido publicados

'online' en la web 'http://www.cube20.org/'.

jueves, julio 15, 2010

10 imágenes graciosas de Linux

Para relajarse un poco y dejar atrás por un instante las discuciones y choque de ideas, vamos a disfrutar con un poco de humor de un Tux que se burla de todo y todos. Es que en NetworkWorld, publicaron un artículo -que también replicó MuyLinux- con una colección de posters, wallpapers y otros artworks que nos muestra un Tux super divertido.

Y como dijo el gran novelista de ciencia ficción, Robert A. Heinlein: “la teología de uno es la carcajada de otro”. A disfrutar de esta colección!

linux-illo-4linux-illo-6linux-illo-8linux-illo-10


Este artículo fue copiado de [Humor] 10 imágenes graciosas de Linux
Visita el sitio origianl para más información
También puedes visitar 140GEEK

miércoles, julio 07, 2010

Empleados de Facebook hackean al encargado de seguridad

La historia corta: uno de los ingenieros jefes del departamento SRE (Site Reliability Engineering) de Facebook, justamente el área a cargo de la seguridad y privacidad entre otros temas, desafió a los empleados de la compañía a hackearlo y con ello acceder al backend de Facebook como admin. Resultado: lo hackearon y le sacaron no sólo las claves de Facebook sino del correo, banco, Twitter y todo lo que se les ocurra.

Todo empezó cuando, en junio, la FTC amonestase a Twitter por “haber fallado en proteger su sistema de administración de accesos no autorizados”, un incidente que los tuvo por las cuerdas durante el 2009. Para prevenir la ocurrencia de un evento equivalente, el depto de SRE de Facebook quiso hacer un ensayo de ataque, nada menos que declarando temporada abierta para que cualquier empleado cuyo sueño fuese hackear la compañía, lo intentase. En favor del SRE hay que decir que no los hackearon instantáneamente, sino que el éxito de la misión fue resultado de dos semanas de abnegado y detectivesco trabajo.

Los empleados que lograron hackear al ingeniero de SRE se ubicaron sigilosamente cerca de su domicilio particular, y conectaron un router inalámbrico que se identificó con el mismo SSID de la red casera de la víctima. Esperaron pacientemente hasta que el ingeniero ingresó al router-trampa y de ahí en adelante, toda su experiencia de navegación fue registrada en detalle, incluyendo por supuesto los passwords de todos los servicios que pedían autentificación i

Más información en: fayerwayer.com

martes, julio 06, 2010

Como convertirse en Administrador - Programador

Vaya titulo.

Dedicado a todos aquellos que me preguntan por el titulo de esta nota. No tengo la receta magica, pero si algunos consejos que me han servido:

La estrategia se basa en dos frentes:

  • Comprimir y encontrar tiempo libre, sin sacrificar el que destinamos a la familia.

  • Mantenernos vivos ($$$) mientras aprendemos. Regla: todo el tiempo debemos mantenermos actualizados, de modo que todo el tiempo aprendemos. El Google Reader y Twitter son las mejores herramientas para mantenerse al día.

Mas Detalles en el siguiente Link

Fuente : bunker-blog

miércoles, junio 02, 2010

Noticias Sobre Postgresql

PostgreSQL: Novedades de Productos

Recordamos que han salido las actualizaciones 8.4.4, 8.3.11, 8.2.17, 8.1.21, 8.0.25, y 7.4.29. ¡Actualice en cuanto sea posible!
http://www.postgresql.org/docs/current/static/release.html

PostgreSQL: Trabajos

http://www.postgresql-es.org/ofertas_laborales

PostgreSQL Internacional

CHAR(10), la Conferencia PostgreSQL sobre Clustering, Alta Disponibilidad y Replicación está ahora abierta para reservas e inscripción en linea. Julio 2-3 de 2010, Oriel College, Oxford University, Reino Unido
http://www.char10.org/

PostgreSQL Regional

Las Jornadas Regionales de Software Libre se llevarán a cabo del 28 al 30 de Octubre de 2010 en San Luis, Argentina, con espacios dedicados a PostgreSQL:
http://wiki.jornadasregionales.org

Ya está online todo lo referente al PgDay Cubano/Latinoamericano del 1 al 5 de febrero de 2011:
http://postgresql.uci.cu/news/19

PostgreSQL en los Medios

Planeta PostgreSQL (ArPUG): http://planeta.arpug.com.ar/

Las Noticias semanales de PostgreSQL son traducidas y publicadas esta semana en español por Mariano Reingart (originalmente en inglés por David Fetter).

Envíe noticias y anuncios antes del Domingo a las 3:00pm (hora del pacifico).
Favor de enviarlos en inglés a david@fetter.org, alemán a pwn@pgug.de, italiano a pwn@itpug.org y español a pwn@arpug.com.ar.

Más información, eventos locales, parches aplicados, pendientes y rechazados en:
http://www.postgresql.org/community/weeklynews/

lunes, mayo 31, 2010

5 claves a la hora de aprender un Lenguaje de Programación

El aprendizaje de un lenguaje de Programación nuevo es muchas veces una tarea bastante didáctica y dinámica, por lo menos en lo que respecta a mi experiencia como programador, básicamente los procedimientos son similares para cualquier lenguaje que queramos aprender y me atreví a realizar un pequeño listado de las 5 claves más importantes a seguir.

1 Aprender las Características del Lenguaje de Programación

Este es un aspecto fundamental antes de comenzar a realizar las primeras pruebas, test, etc. con el lenguaje de programaión. Debemos conocer con certeza las características básicas de este nuevo lenguaje que quiero aprender a utilizar.

Asimismo debe conocer los alcances del mismo, que es lo que puedo llegar a hacer y que no podría llegar a hacer, es bueno dirigirse a foros de programación donde varios dejan su opinión y comentarios.

2 Crear nuestro entorno de Desarrollo

Ahora que ya conoces los aspectos fundamentales del nuevo lenguaje de programación que deseas aprender, es indispensable que comiences a elaborar tu entorno de desarrollo para los primeros acercamientos con el lenguaje.

Es indispensable instalar tanto el lenguaje de programación, su compilador o intérprete, sus herramientas adicionales para aprender a utilizarlas, etc.

3 Documentación oficial

Les puedo asegurar que después de hacer tantos how-to y tutoriales con diferentes lenguajes, no hay nada como leer la documentación oficial del lenguaje de programación, por lo general vas a encontrar en el mismo ejemplos prácticos y usos con su correspondiente explicación.

Desde los tipos básicos de datos, hasta la programación más avanzada, seguramente encontrarás en esta documentación que siempre acompaña estos lenguajes de programación.

4 Mejorar lo que existe

De esto ya habíamos hablado hace un tiempo, y se trata de aprender a programar observando ejemplos escritos por programadores más avanzados, esta técnica es muy efectiva y sirve para incentivarnos más en nuestros primeros pasos.

Es fundamental comenzar con las pequeñas cosas, por más simples y sencillas que fueran para luego avanzar con más fuerza, confianza y una base de programación de nuevas experiencias.

5 Ayudar y Aprender

La última clave es no quedarnos con el conocimiento y la experiencia solo para nosotros, sino buscar canales en donde pueda difundir lo que aprendí, como este humilde blog, redes sociales, guías de programación, foros, etc.

Existen realmente muchas formas de llegar a la comunidady conseguir una comunicación más fluída para aprender más sobre programadores más experimentados, es por ello que la retroalimentación es muy positiva en todos los aspectos.

miércoles, mayo 12, 2010

KDevelop 4.0 con plugins para PHP

kdev

El proyecto de KDE anunció así la disponibilidad de la versión 4.0 estable de su principal entorno de desarrollo integrado (IDE) KDevelop, que tiene una importante novedad para todos los desarrolladores web: se trata de primer lanzamiento que incluye la primer versión de sus plugins para PHP.

Aunque KDevelop está diseñado para ser un excelente IDE de C++, el soporte para otros lenguajes de programación también está dentro de sus planes, y con esta nueva versión 4.0 confían en que esto sea más fácil que nunca antes, comenzando con PHP.

Gracias a estos plugins los errores de sintáxis son reportados a medidas que se escriben, proyectos completos son semánticamente analizados (incluyendo comentarios) para sugerir parámetros y valores de retorno y se ofrece un extenso auto-completado de código con sólido soporte de OOP. Además, KDevelop 4.0 soporta navegación contextual y resaltado sintáctico, integración con la documentación de PHP.net y "ganchos" con los plugins de QuickOpen y el navegador de clases.

Una buena colección de capturas de pantalla demostrado las anteriores características se encuentra por aquí. El código fuente de KDevelop 4.0 ya se encuentra en sus Mirrors, así que los paquetes binarios para las principales distribuciones de GNU/Linux y Windows no tardarán en aparecer.

Via VivaPHP

¿PHP-FPM a PHP 5.4?

No será para PHP 5.3.3, pero muy probablemente la próxima versión 5.4 de PHP incluya el parche de PHP-FPM (FastCGI Process Manager), que como su nombre lo sugiere es una implementación alternativa de FastCGI para PHP que además agrega algunas características adicionales útiles para sitios de cualquier tamaño, especialmente aquellos con más tráfico.

El parche de PHP-FPM para el núcleo mismo de PHP se encarga de iniciar, detener y reiniciar los procesos de FastCGI según sea necesario, y por eso mismo sería muy atractivo, por ejemplo, para poder usar PHP con el muy eficiente servidor web Nginx. Esto también traería algunas ventajas sobre la alternativa típica de correr PHP como un módulo de Apache, entre ellas:

  • Menor consumo de memoria.
  • Más fácil administración de permisos.
  • Si PHP se cae, Nginx puede continuar funcionando.

Si el parche es aceptado, activarlo sería tan fácil como compilar PHP con la opción --enable-fpm, lo que haría la vida de los administradores mucho más fácil a la hora de montar PHP sobre cualquier servidor que soporte FastCGI.

Via VivaPHP

martes, enero 19, 2010

PDFmyURL: Convierte cualquier sitio a PDF gratis y online

pdf-my-url-convierte-a-pdf-cualquier-sitio-web

Hace sólo unos años, convertir cualquier documento a PDF era una función bastante selectiva. El único software capaz de hacerlo en ese entonces era el Adobe Acrobat y su precio de venta al público era bastante alto como para que un usuario hogareño gastara ese dinero. Por suerte hoy día hay varias opciones gratuitas online y de escritorio capaces de solucionar este dilema existencial.

Hoy tengo para ofrecerles PDFmyURL, un nuevo servicio online totalmente gratis que nos permite convertir cualquier sitio a formato PDF. Para ello sólo necesitaremos escribir la URL del sitio en cuestión, hacer click en el botón de la derecha y voilá, tendremos nuestro PDF cocinado en cuestión de segundos.

Lo interesante del caso es que el servicio también incluye varias opciones extra, como la posibilidad de utilizarlo directamente en nuestro sitio para que los visitantes puedanconvertir nuestras noticias a un formato más amigable con la impresora, además de customizar el encabezado, la fuente a utilizar, el pie de página y la calidad del archivo de salida, entre otros comandos.

El único problema con PDFmyURL es que sólo permite convertir páginas verticales, por lo que las que estan formateadas de manera horizontal no las muestra correctamente. Igualmente teniendo en cuenta que la mayoría de los sitios son verticales no debería ser un gran inconveniente.

Recién lo estuve probando con varios sitios y funciona perfectamente, aunque obviamente deja un espacio en blanco en todo lugar en el que encontremos archivos tipo Flash como animaciones o videos.

Enlace | PDFmyURL
Vía | Downloadsquad