Capibarix

Qué es Linux y qué es GNU/Linux

Qué es GN/Linux

Si alguien dice las palabras “Windows”, “Apple”, “iOS” o “Android”, rápidamente las personas relacionan los términos con el mundo de las computadoras y los dispositivos móviles. Pero si se nombra a “Linux” muy pocos usuarios saben de lo que se está hablando y frecuentemente hay confusiones porque algunos se refieren más específicamente a “GNU/Linux”.

En este post vamos a desenredar esta diferencia y a repensar la filosofía que hay detrás de esto.

¿Qué es un sistema operativo?

Linux es un sistema operativo.

Antes de ingresar en las comparaciones entre GNU/Linux y Linux, es fundamental entender qué es un sistema operativo (OS, por sus siglas en inglés). Supongamos que una computadora es un cuerpo. El sistema operativo sería las funciones neuronales que hacen funcionar a cada parte del organismo y también desde donde se desarrollan los pensamientos. Es el software que gestiona el hardware. En definitiva, el OS permite ejecutar programas y proporciona una interfaz para que los usuarios interactúen con la máquina.

Kernel: el centro del Sistema Operativo

Un componente clave de cualquier sistema operativo es su núcleo, también llamado “kernel”. Con la analogía anterior, esta parte sería lo que surge del cerebro, tanto lo voluntario como lo involuntario: el latido del corazón, respirar, mover las extremidades y pensar, entre cientos de cosas. O sea, en el plano de los sistemas es el encargado de asignar recursos, gestionar procesos y comunicarse con el hardware.

Qué es Linux

En este sentido, Linux es el núcleo de un sistema operativo, y fue desarrollado por el informático finlandés Linus Torvalds en 1991. Es un software libre, lo que significa que su código fuente está disponible para que cualquiera pueda examinarlo, modificarlo y distribuirlo. Esta libertad ha sido fundamental para una comunidad global de programadores que contribuyó a su mejora constante.

Qué es GNU

Por otro lado, GNU es un juego de palabra que significa GNU’s Not Unix (un OS de código cerrado) es un proyecto iniciado por el informático estadounidense Richard Stallman con el objetivo de crear un sistema operativo completamente libre.

El desarrollador comenzó este trabajo a principios de la década del ´80 como respuesta a los “sistemas privativos” que no permitían reescrituras en los códigos sin permisos de propiedad intelectual y licencias de uso.

En esta búsqueda, GNU delineó una gran cantidad de herramientas y utilidades fundamentales para un sistema operativo, como compiladores, editores de texto, shells y bibliotecas. Sin embargo nunca tuvo un kernel con la capacidad de potenciar todo el desarrollo.

La unión hace la fuerza

La historia en esta parte se transformó en algo previsible. Aunque Linux y GNU fueron proyectos independientes, se complementaron a la perfección. El núcleo de Linux, con su eficiencia y estabilidad, se combinó con las herramientas y utilidades de GNU para formar un sistema operativo completo y funcional. Por esta razón, muchos prefieren utilizar el término “GNU/Linux” para referirse al combo completo, especialmente Richard Stallman y sus seguidores. Linus Torvalds, sin embargo, nunca participó de la discusión. 

Es por este motivo que hay personas que llaman a este OS “Linux”, mientras que otras prefieren “GNU/Linux”. Linux tiene como mascota y logo a un pingüino (llamado “Tux”). GNU, por su parte, se identifica con un Ñu, un antílope africano.

Linux Logo
GNU Logo

¿Android usa Linux?

El sistema operativo más popular en teléfonos móviles y tablets del mundo es Android y éste utiliza el núcleo de Linux como base. Esto le proporciona una sólida plataforma para gestionar tareas esenciales como la administración de memoria, procesos e interconectividad entre diferentes dispositivos. También contribuye a generar una comunidad de desarrolladores de aplicaciones, lo que potencia su usabilidad y popularidad.

Algunas de las distribuciones más populares de Linux para computadoras:

  • Ubuntu
  • Linux Mint
  • Debian
  • Fedora
  • CentOS
  • Arch Linux
  • Manjaro
  • OpenSUSE
  • Red Hat

Cómo funciona el buscador de Google

Cómo funciona el buscador de Google

El lunes 5 de agosto el juez del Estado de Columbia Amit P. Mehta dictaminó que Google violó leyes antimonopolio para mantener una posición dominante en la industria de los buscadores de Internet. En un artículo de The New York Times, se explican las 277 páginas en las que el magistrado convalidó las presentaciones del Departamento de Justicia federal, varios estados y empresas, quienes sostienen que la empresa de Mountain View imponga ilegalmente su dominio pagando miles de millones de dólares a empresas como Apple y Samsung para que Google manejara automáticamente las consultas de búsqueda en sus dispositivos y navegadores web.

Para entender bien el negocio de la megacompañía, en este post explicamos cómo funciona el buscador de Google, una herramienta que permite acceder a una cantidad inmensa de información de forma rápida y sencilla. Detrás de cada búsqueda se realiza un proceso complejo que involucra la exploración de la web, la indexación de la información y la aplicación de algoritmos para clasificar los resultados. Entender cómo funciona es útil para los usuarios como para los creadores de contenido.

Existen decenas de buscadores recomendables, pero el de esta mega empresa es el que concentra la mayor cantidad de internautas.

Cuándo nació Google

La firma inició oficialmente su actividad en septiembre de 1998. Sin embargo, sus raíces se remontan a 1996, cuando Larry Page y Sergey Brin, estudiantes de Stanford, comenzaron a desarrollar el proyecto como parte de su tesis doctoral.

En un principio, el buscador se llamaba “BackRub” y se enfocó en analizar la estructura de los enlaces entre las páginas web para determinar su relevancia. Recién en 1997 decidieron registrar el dominio google.com y darle el nombre que hoy conocemos.

Google Discover recomendaciones para SEO

Cómo es el proceso de búsqueda que realiza Google

El mecanismo que le permite realizar su trabajo al megabuscador se basa en tres fases, pero no todas las páginas pasan por cada una de ellas. El requisito fundamental es que el sitio cumpla con los protocolos y políticas de condiciones de la empresa.

Las fases:

  1. Rastreo: Google descarga texto, imágenes y vídeos de páginas que encuentra en Internet mediante programas automatizados, llamados “rastreadores”. Se trata de un proceso similar a un “scaneo” de todos los componentes de una web ni bien se den de alta o se actualicen.
  2. Indexación: el desarrollo analiza el texto, las imágenes, los videos y los archivos, entre otros elementos relevantes,, para luego clasificarlos y almacenarlos en el índice de Google. Esto es una gran base de datos estructurada para responder a consultas.
  3. Publicación de resultados de búsqueda: cuando un usuario hace una búsqueda en Google, la plataforma le devuelve la información que la empresa considera relevante sobre su consulta. En este punto hay que destacar que los datos brindados son arbitrarios, de acuerdo a los criterios de la compañía y hay que distinguir entre los resultados orgánicos y los pagos.

En esta última fase algunos puntos de relevancia son:

  • Las palabras clave: Google busca las páginas que contienen las palabras exactas que escribiste o palabras que se aproximen a su significado sinonímico.
  • La relevancia de las páginas: Se evalúa la importancia de una página en relación con la búsqueda, teniendo en cuenta factores como la cantidad y calidad de los enlaces que apuntan a ella.
  • La ubicación geográfica: los resultados prioritarios son los más cercanos al usuario, ya sea porque se especificó el lugar de la búsqueda o por la geolocalización del dispositivo que realiza el “search”. El idioma también juega un rol fundamental en la geografía.
  • El tipo de búsqueda: Google distingue entre diferentes tipos de búsquedas de acuerdo al objetivo, como imágenes, noticias, videos, etc.

Qué es el algoritmo de Google

Inicialmente tenemos que aclarar que un algoritmo es un “conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”. En el caso de Google, su algoritmo no es cien por ciento público.

Lo que se sabe es que los programas constantemente combinan enlaces, información actualizada, últimas noticias, keywords, autoridad temática y experiencias de usuario. Se calcula que, al menos, 200 factores de búsquedas se aplican a la hora de una consulta. En un año, Google puede llegar a realizar 2.000 actualizaciones a su algoritmo, por eso es normal que los resultados de una búsqueda varíen con el tiempo.

El fallo de la Justicia contra Google

La decisión histórica emitida el lunes por el juez Amit P. Mehta del Tribunal de Distrito de Columbia, podría cambiar fundamentalmente la forma en que los gigantes tecnológicos operan.

“Es un monopolio y ha actuado como tal para mantener su monopolio”, sentenció.

El Departamento de Justicia y varios estados habían demandado al gigante tecnológico de Mountain View (California, Estados Unidos) acusándola de consolidar ilegalmente su dominio pagando miles de millones de dólares a empresas como Apple y Samsung para que Google manejara automáticamente las consultas de búsqueda en sus dispositivos y navegadores web.

Esta decisión es probable que influya en otras demandas antimonopolio contra Google, Apple, Amazon y los servicios de Meta (Facebook, Instagram y WhatsApp).

Stuxnet: qué fue y cómo cambió la ciberguerra

Virus informatico Stuxnet

En junio de 2010, el mundo se vio sorprendido por la revelación de un virus informático que se había infiltrado en las instalaciones nucleares de Irán. Este malware, conocido como Stuxnet, se convirtió rápidamente en un hito en la historia de la ciberseguridad y la guerra electrónica. Su desarrollo y uso marcó un antes y un después en la forma en que los Estados desarrollan la seguridad interna de sus redes.

El origen de Stuxnet

Stuxnet es ampliamente reconocido como el primer arma digital creada para atacar un objetivo físico. Técnicamente es un “gusano”, lo que significa que tiene la capacidad propagarse, realizar funciones específicas y mutar en un sistema. Se cree que fue diseñado en colaboración entre Estados Unidos e Israel, aunque los detalles de su creación y despliegue han sido objeto de especulación, sin ningún dato concreto. Sin embargo, un artículo en el sitio de la reconocida empresa de antivirus Avast asegura que ambos gobiernos desarrollaron el malware bajo el programa “Juegos Olímpicos”.

El virus estaba orientado específicamente para atacar los sistemas de control industrial, particularmente aquellos que utilizaban hardware de la empresa alemana Siemens en las instalaciones de enriquecimiento de uranio de Natanz, Irán.

Los investigadores comenzaron a estudiar Stuxnet cuando se dieron cuenta de que sus complejas características eran inusuales para un malware convencional. No sólo se propagaba a través de unidades USB, sino que también tenía la capacidad de buscar y atacar sistemas específicos. El desarrollo utilizó una vulnerabilidad en Windows para infiltrarse en las computadoras de sus víctimas, y una vez dentro, se enfocó en manipular con precisión las centrifugadoras utilizadas para el enriquecimiento del uranio.

El primer laboratorio en explicar cuestiones básicas del “gusano” fue el bielorruso VirusBlokAda. Meses después su par ruso Kaspersky Lab detectó el virus en cientos de computadoras personales e industriales de Asia y brindó un informe más detallado. «Se trata de un prototipo funcional y aterrador de un arma cibernética que conducirá a la creación de una nueva carrera armamentística mundial», indicó la compañía rusa.

Propagación y Ataque

Una de las facetas más intrigantes de Stuxnet fue su capacidad de propagarse a través de redes informáticas que no estaban conectadas a Internet. Esto era un indicativo de su diseño altamente sofisticado, que permitía que el virus se moviera de una computadora a otra en entornos cerrados de red. El ataque se centró principalmente en las centrifugadoras de la planta de Natanz, acelerando y desacelerando su velocidad de operación de manera que provocara daños físicos y comprometiera su funcionamiento a largo plazo. Mientras eso ocurría los tableros de control no reportaron falla, por lo que los técnicos simplemente no sabían del desperfecto hasta que la máquina dejaba de funcionar.

Se estima que el virus causó enormes retrasos en el programa nuclear de Irán, lo que logró un retroceso considerable en los esfuerzos del país persa por desarrollar esa tecnología. Los informes de la época mencionaron la destrucción de alrededor de un tercio de las centrifugadoras en funcionamiento.

Natanz, Irán.

El método de infiltración de Stuxnet

Los especialistas de la firma de seguridad cibernética Symantec, estimaron que Stuxnet probablemente llegó al programa nuclear de Natanz en una o varias memorias USB infectadas.

Alguien habría tenido que insertar físicamente el USB a una computadora conectada a la red local y el gusano penetró así en el sistema de la planta.

Con el tiempo, Kaspersky Lab encontró decenas de variaciones del malware en computadoras de Asia, por lo que elaboró la hipótesis sobre que se desarrollaron varios modelos para atacar otras instalaciones.

Vulnerabilidades Reveladas

La aparición de Stuxnet también puso de manifiesto las vulnerabilidades inherentes en las infraestructuras críticas y en los sistemas de control industrial. El hecho de que un virus pudiera infiltrarse con tanta facilidad en sistemas diseñados para operar de manera aislada exigió una revisión exhaustiva de las políticas de seguridad cibernética en todo el mundo. Las organizaciones estatales y privadas se dieron cuenta de que no podían confiar en la seguridad perimetral y que debían adoptar un enfoque más integral hacia la protección de sus sistemas.

En todo el mundo se comenzaron a implementar medidas de seguridad más estrictas y a desarrollar protocolos más robustos para la protección de infraestructura crítica. Se realizaron auditorías de seguridad, capacitación para el personal y se promovieron prácticas de ciberhigiene que buscaban minimizar los riesgos de ataques similares. También se cuestionó la conveniencia de los sistemas operativos desarrollados por empresas ajenas a los entornos gubernamentales.

Una nueva forma de guerra

Desde la aparición de Stuxnet, se ha observado un cambio en la forma en que tanto los gobiernos como las corporaciones abordan la ciberseguridad. Se ha incrementado la inversión en defensa cibernética y en capacidades ofensivas, y se formaron alianzas entre el sector público y el privado para compartir información y recursos. La preocupación por la guerra cibernética ha llevado a que ciertos países fortalezcan sus capacidades de inteligencia cibernética y desarrollen políticas específicas para responder a las amenazas de ciberataques.

Los sucesos posteriores a Stuxnet también han visto el surgimiento de nuevas herramientas de malware con propósitos similares. Los ataques como WannaCry y NotPetya, que causaron interrupciones masivas a nivel global, son ejemplos de cómo la evolución del malware ha seguido desde el caso de Stuxnet. La ciberseguridad se ha convertido en un campo en constante cambio, donde los atacantes y defensores están en una continua carrera armamentista.

¿Qué es Volt Typhoon? – #HuellasTechs

Un grupo de hackers, conocido como Volt Typhoon, ataca hace años a los sistemas de empresas y gobiernos, mientras las autoridades de Estados Unidos y China se echan la culpa por su supuesta colaboración con los piratas digitales.

Su origen es incierto y el temor que despierta en el sector de la seguridad informática aumenta día a día.

¿Quiénes son?

Volt Typhoon, también es conocido como Vanguard Panda, Bronze Silhouette, Dev-0391, UNC3236, Voltzite e Insidious Taurus. Se lo considera una de las amenazas cibernéticas más importantes de la actualidad, responsables de una amplia gama de ataques sofisticados contra gobiernos, empresas e instituciones de investigación en todo el mundo.

Los primeros hackeos atribuidos al grupo comenzaron en 2009 y el más resonante en ese año fue la “Operación Aurora”, que consistió en una acción a gran escala y tuvo como objetivo empresas tecnológicas estadounidenses como Google, Adobe y Juniper Networks. Se cree que el robo de propiedad intelectual y la información confidencial fueron los principales motivos.

Es importante destacar que Volt Typhoon probablemente ha estado involucrado en muchos ataques que no han sido reportados públicamente.

El grupo es altamente capacitado y organizado con recursos considerables a su disposición, por eso se cree que cuenta con financiamiento de terceros.

¿Qué hacen?

Sus acciones se centran principalmente en el espionaje y la recopilación de información sensible. Utilizan métodos complejos para infiltrarse en redes informáticas, robar datos valiosos y llevar a cabo ciberataques disruptivos. Entre sus tácticas comunes se encuentran:

  • Explotación de vulnerabilidades: Buscan puntos débiles en los sistemas informáticos para obtener acceso no autorizado.
  • Malware: Desarrollan y utilizan software malicioso para robar datos, tomar el control de sistemas y realizar ataques de denegación de servicio (DDoS).
  • Ingeniería social: Manipulan a las personas para que revelen información confidencial o hagan clic en enlaces maliciosos.

Entre sus objetivos más comunes se encuentran:

  • Gobiernos: Robo de secretos de estado, sabotaje de infraestructuras críticas y desestabilización política.
  • Empresas: Robo de propiedad intelectual, secretos comerciales y datos financieros.
  • Instituciones de investigación: Robo de información científica y tecnológica de vanguardia.

Un informe de Microsoft de 2023 señaló que Volt Typhoon podría “perturbar la infraestructura de comunicaciones crítica entre Estados Unidos y la región de Asia durante futuras crisis”. La compañía habría sufrido un ataque en 2021 en el que se vulneró la seguridad de miles de clientes.

La pelea entre Estados Unidos y China por el grupo de hackers

En un contexto de multipolaridad y una escalada de tensiones económicas entre Estados Unidos y China, las comunidades de inteligencia y seguridad cibernética de todo el mundo están trabajando activamente para rastrear a Volt Typhoon.

En marzo de 2024, Estados Unidos y varios países aliados emitieron una advertencia conjunta sobre la actividad de Volt Typhoon y urgieron a diferentes organizaciones a tomar medidas para protegerse.

En abril del mismo año, el Federal Boureau of Investigation (FBI) advirtió sobre un posible aumento de ataques por parte del grupo, dirigidos a infraestructuras críticas en Estados Unidos.

El país de América del Norte acusó a China de financiar al grupo de hackers, lo que le otorgaría acceso a tecnología avanzada y le permite operar con relativa impunidad.

Por su parte, el gobierno chino recogió el guante y publicó un informe en el que desmiente “tajantemente las exageradas acusaciones de Estados Unidos”.

Un reciente análisis publicado por agencias chinas de ciberseguridad sugirió que entidades gubernamentales de EEUU usaban la acción de «Volt Typhoon» para encubrir actividades de espionaje.

Según China, el objetivo era continuar utilizando la Sección 702 de la Ley de Vigilancia de Inteligencia Extranjera estadounidense, que había expirado a finales de 2023, para llevar a cabo ciberataques contra otros países. Según el informe, la Sección 702 permite a los servicios de inteligencia y a las fuerzas del orden exigir a los operadores de internet, como Google, Apple y Microsoft, la entrega incondicional de todos los datos e información personal sin necesidad de una orden judicial.

¿Existe realmente Volt Typhoon? ¿Quién está detrás del grupo? ¿Qué fines persigue? Son preguntas difíciles de responder por el carácter secreto que tiene el mundo del hacktivismo. Lo que es real es la preocupación que desde 2009 las grandes empresas manifiestan ante una amenaza constante.

Rodolfo Walsh: ¿El primer hacker argentino? – #HuellasTechs

Rodolfo Walsh, ¿El primer hacker?

Este artículo fue publicado originalmente en la revista online PostPeriodismo en junio de 2020, como un homenaje al militante, intelectual y periodista argentino Rodolfo Walsh, asesinado por la dictadura militar en marzo de 1977. La idea fue contar una anécdota muy poco conocida, que mezcla su pasión por el oficio de escribir, la criptografía y la invasión contrarrevolucionaria a Playa Girón. De paso, indagamos en los orígenes de los hackers argentinos.

Los hackers argentinos más reconocidos

Históricamente se consideró al entrerriano Raúl “Yuyo” Barragán como el primer hacker de la Argentina, quien en 1978 -según el libro “Los Llaneros Solitarios, la Guerrilla Informática” de Raquel Roberti y Fernando Bonsembiante– logró interpretar los códigos de los Telex (sucesoras de las teletipos) que utilizaban las líneas aéreas para la reserva de tickets y así viajó por todo el mundo, y hasta montó un negocio de venta paralela de boletos.

Ya en la década del 90 surgieron Julio “El Gritón” Ardita, quien desde líneas gratuitas de teléfono se pudo “colar” en algunas redes de la NASA y el Pentágono, y Daniel Sentinelli -más conocido como “El Chacal”-  quien se cansó de mostrar las debilidades de numerosos sistema de seguridad informática de todo el mundo.

El descubrimiento de Rodolfo Walsh

Sin embargo Walsh incurrió en una pequeña hazaña 17 años antes del debut como hacker de “Yuyo” Barragán y, de algún modo, salvó la recién lograda Revolución Cubana. Hay que tener presente un dato no menor: el periodista de ascendencia irlandesa era un amante de las matemáticas y la criptografía (disciplina que se ocupa de la teoría y la técnica de cifrar o codificar un mensaje para que no sea interpretado por quien no comparta el código). Ya en una de sus crónicas “3120-5699-1184 – Lenguaje universal cifrado -”, recopilada en el libro “El Violento oficio de Escribir”, Walsh nos daba una pincelada de su pasión.

La historia nos llega por un artículo del gran escritor colombiano Gabriel García Márquez, publicado en diciembre de 1981 en el diario el País de España. Luego de la Revolución Cubana, el autor de “Crónica de una muerte anunciada” compartió con el argentino la redacción de la Agencia Prensa Latina, que fue fundada en La Habana por Jorge Ricardo Masetti.

A finales de 1960 un hecho curioso ocurría en la redacción del medio: cada tanto una teletipo (máquina que servía para despachar y recibir cables de noticias) se volvía “loca” y escupía rollos de papel con textos incomprensibles, como si estuviera fallando. Un rato después el aparato “volvía a la normalidad”. La terminal correspondía a un canal compartido en el que también se transmitían los despachos de tráfico comercial de la empresa de telecomunicaciones Tropical Cable, filial de la All American Cable en Guatemala. García Márquez recordó que esos sucesos obsesionaron a Walsh, quien luego de constatar que la máquina no tenía ninguna falla técnica, en diciembre de ese año recorrió varias librerías y bibliotecas de La Habana hasta hacerse de un manual de criptografía.

El argentino le dedicó varias madrugadas hasta que por fin comprobó lo que suponía: el “desperfecto” no era otra cosa que un mensaje cifrado. 

“Lo que encontró dentro no sólo fue emocionante como noticia, sino un informe providencial para el Gobierno revolucionario (…) El cable estaba dirigido a Washington por un funcionario de la CIA adscrito al personal de la Embajada de Estados Unidos en Guatemala, y era un informe minucioso de los preparativos de un desembarco armado en Cuba por cuenta del Gobierno norteamericano. Se revelaba, inclusive, el lugar donde iban a prepararse los reclutas: la hacienda de Retalhuleu, un antiguo cafetal en el norte de Guatemala”, describió Gabo.

Walsh comunicó su hallazgo a Masetti y a otros compañeros. El material era de importancia estratégica para el gobierno cubano pero para el director de Prensa Latina valía más como primicia periodística. Para ir a la fuente pensó en infiltrar a Walsh en Guatemala disfrazado de pastor protestante que viajaba al país centroamericano con el fin de vender biblias, mientras mandaba sus despachos para la agencia. El plan no prosperó. Las autoridades cubanas se enteraron del contenido de esos cables y rápidamente solicitaron toda la información al respecto.

Al contrastar el material descifrado por el periodista argentino con sus informes de inteligencia corroboraron lo que temían: en Guatemala se estaba dando la última horneada a lo que sería una invasión contrarrevolucionaria.

El gobierno cubano ordenó a Prensa Latina no publicar nada al respecto hasta que el Ejército Revolucionario tenga listas las defensas para repeler la invasión. Masetti se perdió una de las mejores primicias que pudo tener en sus manos. ¿Y Walsh? Walsh no sólo contribuyó con la Revolución Cubana, tal vez se convirtió en el primer hacker argentino.

La invasión a Playa Girón

El resto ya historia contada: la invasión a “Playa Girón” o “Bahía de Cochinos” fue una incursión anfibia contrarrevolucionaria efectuada el 17 de abril de 1961 por exiliados cubanos y paramilitares latinoamericanos, financiados y coordinados por la CIA y empresarios cubanos de Florida. Luego de combates aéreos y terrestres, el gobierno de Fidel Castro logró frenar el avance de los contra. Para el 19 de abril la Fuerza Aérea Revolucionaria, el Ejército regular y las milicias populares dieron fin al intento de invasión y, salvo algunas incursiones leves de células pequeñas, no hubo otro intento de copamiento a las islas.

Mi nombre es Ariel Diez. Si te gustó este artículo me podés seguir en Capibarix.com o ingresar a la historia anterior de Huellas Techs: Kim Dotcom: hacker, magnate y villano de internet — #HuellasTechs

Kim Dotcom: hacker, magnate y villano de internet – #HuellasTechs

(Actualización 16 de agosto de 2024)

“Emprendedor, innovador, gamer, artista, luchador por la libertad en Internet y padre de seis hijos”, dice la descripción en su cuenta de la red X.

Hablar de Kim Schmitz, más conocido como Kim Dotcom (Kim Punto Com, en español), es referirse a una leyenda del mundo tecnológico y esa condición hace difícil distinguir qué es real en su vida y qué forma parte de los mitos del ambiente. Lo que se puede afirmar es que pasó de ser un hacker solitario a un empresario multimillonario y que, luego de varias batallas legales, terminó investigado y detenido por los gobiernos de Estados Unidos y Nueva Zelanda, que en agosto de 2024 autorizó la extradición al país norteamericano.

Los inicios de Dotcom

Kim Schmitz nació en Kiel, Alemania, el 21 de enero de 1974. Desde su juventud, mostró interés por la programación y el análisis de las redes. Sobre el final de los 80 comenzó a relacionarse con los primeros grupos de hacktivistas que militaban en su país, en los que se ganó la fama de poder vulnerar la seguridad de organismos estatales.

A los 16 años, fue arrestado por fraude informático y espionaje cibernético. Navegando por la web y confeccionando una serie de scripts había encontrado la manera de acceder a los administradores de telefonía de cientos de empresas en todo el mundo y con ese hallazgo montó un sistema de venta de minutos telefónicos a terceros, como una especia de servicio de tarjetas telefónicas. Luego de una breve detención en Alemania y una multa, Kim fue liberado y se transformó en consultor de seguridad informática de empresas multinacionales, lo que generalmente se conoce en el ámbito como  “white hacker”.

Schmitz fundó su compañía de seguridad y se volvió millonario, pero después volvió a ser denunciado ante la Justicia, está vez por fraude empresarial. Fue detenido en Tailandia, donde residía, aunque a los pocos meses recuperó su libertad. Para ese entonces, su prestigio en el mundo de la seguridad digital se había derrumbado, así que pasó un tiempo dedicado a una serie de hobbies extravagantes, entre los que se contaba correr carreras en autos lujosos.

Finalmente, en 2005, fundó MediaReactor, una empresa de alojamiento de archivos que luego se transformaría en Megaupload. En aquellos años, las formas de compartir archivos eran muy limitadas por el peso, sobre todo en los e-mails, y este tipo de servicios comenzó a ser la estrella de internet.

El éxito de Megaupload

Megaupload

Megaupload se convirtió en uno de los sitios de alojamiento de archivos más populares del mundo, ofreciendo a los usuarios un espacio de almacenamiento gratuito.

La plataforma era extremadamente rentable para Dotcom. De acuerdo al Federal Bureau of Investigation (FBI) de EE.UU., poseía unos 66.6 millones de usuarios registrados. Se estima que unos 5 millones de usuarios ingresaban por día y llegó a estar entre los 100 más sitios más visitados a nivel mundial durante un par años. El organismo de seguridad estadounidense argumentó que Megaupload causó más de US$500 millones de pérdidas a la industria del cine y de la música.

La firma generó grandes ingresos a través de publicidad y suscripciones premium.

Megaupload ofrecía cuatro tipos de servicios:

-Gratis: con el que se podía subir 2G y descargar 1G por sesión.

-Registrados: con diferentes ampliaciones de gigas, de acuerdo al año, arrancando con 10G.

-Premium: con una amplitud de carga y descarga múltiple que comenzó con 100G. Se pagaba mensualmente.

-Vitalicia: era la versión Premium, pero de por vida. 

Las controversias y la caída en desgracia de Dotcom

En el pico de la popularidad de la compañía, entre 2008 y 2010, Megaupload fue acusada de facilitar la piratería de contenido con derechos de autor, principalmente en Estados Unidos. Sitios como el del protagonista de esta historia, MediaFire y The Pirate Bay, entre otros, fueron el blanco de las industrias del cine y la música, así como de las editoriales.

Para ese entonces Dotcom ya había vivido en varios países, hasta que fijó residencia en Nueva Zelanda. Allí se mudó a la mansión de Coatesvilles, cerca de la ciudad de Auckland. El lugar combinaba lujos, salas repletas de mega servidores y un estricto sistema de seguridad privada.

No obstante, en 2012 las autoridades de Estados Unidos y Nueva Zelanda llevaron a cabo una cinematográfica redada contra la empresa, luego de meses de investigación y espionaje. Dos helicópteros descendieron en los jardines de la la mansión de Dotcom (donde también funcionaba la firma) y un equipo táctico de oficiales neozelandeses ingresaron en cuestión de minutos. Los agentes incautaron centenares de elementos y arrestaron a Dotcom, junto a un grupo de sus empleados.

Durante el operativo, el magnate se había atrincherado en una habitación antipánico blindada e intentó resistir armado con una escopeta recortada.

Las acusaciones y los procesos legales

Kim Schmitz enfrentó cargos por piratería, lavado de dinero y crimen organizado. El caso se convirtió en una batalla legal de alto perfil, con Dotcom luchando por su libertad condicional.

Tras varios años de litigio, en 2020, la Corte Suprema de Nueva Zelanda denegó la extradición, alegando que Estados Unidos no había proporcionado suficientes pruebas. Un dato fundamental en la defensa del empresario, es que el allanamiento no había contado con todos los pasos necesarios para ser validado ante los tribunales. También la etapa de recolección de pruebas previas al operativo estuvo plagada de irregularidades.

Sin embargo,

en agosto de 2024 el ministro de Justicia neozelandés, Paul Goldsmith, que decidió que Dotcom sea entregado a Estados Unidos para ser juzgado, poniendo fin – por ahora – a una interminable lucha legal.

La extradición no tiene fecha aún y Goldsmith apuntó que se le concedería “un breve periodo de tiempo para reflexionar y asesorarse” sobre la decisión.

“No se preocupen, tengo un plan”, escribió Dotcom en X, sin ofrecer más detalles. Ira Rothken, de su equipo legal, indicó en la misma red social que se estaba preparando una solicitud de revisión judicial, en la que se pedirá que un juez evalúe la decisión del ministro.

La actualidad de Dotcom y sus nuevos negocios

Tras recuperar su libertad y los permisos para mantenerse en los negocios digitales, Dotcom sigue viviendo en Nueva Zelanda y continúa activo en el mundo empresarial. Algunos de sus actuales proyectos son: Mega, un servicio de almacenamiento en la nube seguro, y Bilion, una plataforma de redes sociales. En ningún caso pudo replicar el éxito de Megaupload.

También se dedica al mundo de la música, es un tuitero activo y espera que Nueva Zelanda le haga una compensación económica por “daños morales”.




Fuentes:

The Wired: https://www.wired.com/2012/10/ff-kim-dotcom/

Xataka: https://www.xatakamovil.com/conectividad/las-cifras-que-el-fbi-presenta-contra-megaupload

El Economista: https://www.eleconomista.es/empleo/noticias/12272113/05/23/que-fue-de-kim-dotcom-el-multimillonario-dueno-de-megaupload.html

El País: https://elpais.com/noticias/kim-dotcom/

MuyComputer: https://www.muycomputer.com/2012/01/23/20-datos-reveladores-sobre-kim-dotcom-el-fundador-de-megaupload/

Web oficial de Kim Dotcom: https://kim.com/

Youtube Oficial de Kim Dotcom: https://www.youtube.com/watch?v=mmObwguVmEI

Web de Mega: https://mega.nz/

Documental «Megaupload: The Rise and Fall of an Empire”

Qué es Google Discover y cómo ayuda a generar tráfico hacia tu web

Google Discover recomendaciones para SEO

Google Discover es una función de la empresa que muestra a los usuarios contenidos personalizados basados en sus intereses y comportamientos de navegación.

A través de algoritmos avanzados de aprendizaje automático, la plataforma recopila información sobre las búsquedas anteriores, ubicación, historial y preferencias para ofrecer una selección de artículos, noticias, videos y otro contenido relevante directamente en la página de inicio de la aplicación de Google o en la pantalla de inicio de los dispositivos móviles.

La idea principal detrás de Google Discover es proporcionar a los usuarios una forma conveniente y personalizada de acceder a contenido interesante sin necesidad de realizar búsquedas activas.

Los temas van desde noticias de actualidad hasta publicidades.

Recomendaciones para SEO en Discover

La optimización SEO tradicional sigue siendo la base fundamental para posicionar correctamente en Discover.

Los principales puntos son:

  • Crea contenido de alta calidad: Prioriza la información útil, original y bien redactada.
  • Optimiza los títulos: Hazlos atractivos y explicativos. Puede utilizar herramientas que ayuden a determinar la efectividad de las palabras, como Google Search Console o Google Trends.
  • Utiliza imágenes de alta calidad: Las imágenes deben tener una calidad optima y un equilibrio de peso para no relentizar la carga. La originalidad de la imagen es un punto a favor.
  • Promociona tu contenido en redes sociales: Comparte los artículos en varias plataformas. El tráfico orgánico en redes sociales y el aumento de lecturas en tu material es un buen incentivo para Discover.
  • Construye tráfico referral: Consigue que otros sitios web enlacen a tu contenido de forma natural, en especial las webs de contenidos similares.

¿Qué importancia tiene la calidad de una imagen para el SEO?

La calidad de las imágenes en un sitio web juega un papel crucial en el SEO, ya que impacta en la experiencia del usuario, la velocidad de carga, la relevancia del contenido y la originalidad.

Al prestar atención a estos criterios para optimizar las imágenes de manera adecuada, es posible mejorar significativamente el posicionamiento de un contenido en Google y otros motores de búsqueda.

1. La experiencia del usuario

Una imagen de buena calidad contribuye significativamente a la experiencia del usuario. Cuando los visitantes de un sitio web encuentran imágenes claras, nítidas y visualmente atractivas, es más probable que permanezcan en el sitio por más tiempo, interactúen con el contenido y regresen en el futuro. Esto puede resultar en tasas de rebote más bajas y en una mayor participación, lo que a su vez puede tener un impacto positivo en el posicionamiento en los motores de búsqueda.

2. Velocidad de carga y equilibrio de peso

Las imágenes de alta calidad suelen cargar más rápido, lo que es crucial para la optimización de la velocidad de apertura de una página web. Los motores de búsqueda como Google consideran la velocidad de carga como un factor importante en el ranking de las páginas, por lo que utilizar imágenes de baja calidad puede afectar negativamente la posición en los resultados de búsqueda. De todos modos, las imágenes de alta calidad suelen tener un mayor tamaño (o peso) de archivo, por lo que es importante encontrar un equilibrio adecuado para garantizar tanto la calidad visual como la velocidad de carga óptima.

3. La relevancia de la imagen

Un aspecto importante para considerar es la relevancia de la imagen para el contenido en el que se encuentra. Google y otros buscadores utilizan algoritmos avanzados para analizar el contenido de las imágenes, como el texto alternativo (ALT text) y las etiquetas asociadas. En este sentido, es importante que la imagen esté directamente relacionada con el contenido y que el texto alternativo describa de manera precisa y concisa a la imagen. Todo este proceso proporciona la información relevante a los motores de búsqueda.

4. La originalidad de la imagen

Siempre se recomienda que las imágenes sean únicas y originales en la medida de lo posible. Utilizar imágenes genéricas o de baja calidad que se encuentran comúnmente en otros sitios web puede afectar la credibilidad y la autenticidad del contenido. Las imágenes únicas no solo pueden ayudar a diferenciar el contenido, sino que también pueden ser más compartidas en redes sociales u otros sitios, lo que puede generar más enlaces entrantes y mejorar la autoridad de la página en términos de SEO.

Mejorar con SEO: ¿Qué es Google Search Console?

En este post te cuento de qué se trata esta herramienta fundamental para tu estrategia SEO.

Google Search Console es una plataforma gratuita de la megaempresa que ayuda a los propietarios de sitios web a monitorear, mantener y solucionar problemas de indexación en los resultados del principal buscador de #internet del mundo.

¿Cuáles son las principales ventajas de Google Search Console?

Esta herramienta permite a los usuarios ver cómo Google interpreta su sitio, qué consultas de búsqueda muestran sus páginas en los resultados. También ofrece información sobre el rendimiento de la web, como el número de clics, impresiones y la posición promedio en las búsquedas.

Search Console, además, proporciona datos sobre enlaces entrantes, problemas de seguridad y mejoras recomendadas para optimizar la visibilidad del sitio.