Author: Sergio Luján Mora

  • El lado oscuro del vibe coding

    En When AI nukes your database: The dark side of vibe coding:

    The mishap has become a cautionary tale about “vibe coding,” the growing habit of offloading work to tools like GitHub Copilot or Replit GhostWriter that turn plain English prompts into runnable code. The appeal is obvious: faster prototyping, fewer barriers for non-coders, and a straight shot from idea to demo — but this speed cuts both ways, letting AI slip vulnerabilities into production or, as Replit’s case proved, erase them altogether.

    There are a lot of inherent problems with vibe coding. “Frequently occurring issues are missing or weak access controls, hardcoded secrets or passwords, unsanitized input, and insufficient rate limiting,” said Forrester Analyst Janet Worthington. “In fact, Veracode recently found that 45% of AI-generated code contained an OWASP Top 10 vulnerability.”

  • Cuando la IA borra tu base de datos

    En Replit CEO: What really happened when AI agent wiped Jason Lemkin’s database (exclusive):

    Late last week, an AI coding agent from Replit, an AI software development platform, deleted an entire database of executive contacts while working on a web app for SaaS investor Jason Lemkin. It was not a catastrophic software failure, and Replit was able to recover Lemkin’s data. However, the episode highlights the risk that “vibe coders” might overestimate or misunderstand the real capabilities of AI coding agents and end up causing themselves more bad vibes than good ones.

    Lemkin had built the app entirely on Replit, using the database within Replit and the assistance of the Replit AI agent. He had been working with the agent for nine days, instructing it to build a front end for a database of business contacts. Then, after telling the agent to “freeze” the code, he returned to the project to find that the Replit agent had gone full HAL 9000 and erased all the records in the database.

  • La realidad de vibe coding

    A veces, la inteligencia artificial lo destruye todo:

  • El gran descubrimiento matemático de ChatGPT que no lo fue

    En ChatGPT parecía haber resuelto unos problemas matemáticos complejísimos. La realidad era bien distinta:

    Un grupo de investigadores de OpenAI afirmaron haber “encontrado soluciones para 10 problemas de Erdös que previamente no se habían resuelto, y se ha hecho progreso en otros 11”. La afirmación parecía indicar que GPT-5 había dado un salto cualitativo importante en el ámbito de las matemáticas, pero la realidad era muy distinta. De hecho, todo resultó ser una exageración que puede perjudicar la reputación de OpenAI de cara al futuro.

  • La IA y sus problemas para generar imágenes de personas no normativas

    En AI couldn’t picture a woman like me – until now:

    When Jess Smith uploaded a photo of herself into an AI image generator this summer, she wasn’t expecting a social experiment.

    The former Australian Paralympic swimmer wanted to vamp up her headshot and uploaded a full-length photo of her and prompted it really specifically that she was missing her left arm from below the elbow.

    But ChatGPT couldn’t create the image she was asking for and despite various prompts, the results were largely the same – a woman with two arms or one with a metal device to represent a prosthetic.

    She asked the AI why it was so hard to create the image and it said it was because it didn’t have enough data to work with.

  • ¿Llegará la mierdificación a ChatGPT?

    Muy interesante el vídeo “Cómo internet y las redes se vendieron al dinero”:

    Las redes sociales e internet ya no son lo que eran. Instagram, Google, Uber, X… todas parecen seguir el mismo camino: más anuncios, menos calidad y más control sobre lo que vemos. Este fenómeno tiene nombre: mierdificación.

    En este episodio de te explicamos de dónde viene, cómo funciona y por qué nos atrapa, con ejemplos claros y casos reales en América Latina y el mundo.

    ¿Estamos condenados a usar plataformas cada vez peores? Descubre la teoría de Cory Doctorow, lo que dicen los expertos y qué podemos hacer para recuperar un internet que piense en las personas, no solo en el dinero.

  • Premios AI Darwin 2025

    En Premios AI Darwin 2025: un reconocimiento a los desastres causados por el mal uso de la IA:

    Los AI Darwin Awards 2025 son la extensión lógica de los Premios Darwin a los que tan aficionados somos por aquí. La diferencia es que estos premian a quienes consiguen usar la IA para hacer que pequeños errores alcancen dimensiones globales. La diferencia es que mientras que los premios Darwin premian la autoeliminación individual del acervo genético, aquí igual el desastre se nos lleva a todos por delante. Glups.

    […]

    Entre los candidatos de este año hay de todo, empresas grandes y pequeñas, desde establecimientos de comida rápida a multinacionales y la mismísima OpenAI:

    • Taco Bell: que puso una IA a atender los pedidos desde los coches, ocasionando quejas, fallos y bastantes troleos.
    • Los abogados: que delegaron su trabajo acabando con citas jurídicas inventadas, costándole a los juzgados miles de dólares en las revisiones. Ha habido varios casos en Estados Unidos y Australia.
    • OpenAI/GPT-5: un lanzamiento desastroso, incluyendo sus «nuevas barreras de seguridad» que un investigador rompió en 60 minutos con un ataque TIP, logrando un jailbreak para burlar la seguridad a base de acertijos y secuencias lógicas.
    • Paradox.ai y McDonald’s: su chatbot de contratación «Olivia» estaba protegido con la «infalible» contraseña 123456 (¡WTF!), así que dejaron los datos de 64 millones de aspirantes expuestos para quien quisiera llevárselos.
    • Xbox Game Studios: tras despedir a 9.000 empleados, los directivos sugirieron que consiguieran «apoyo emocional» mediante IAs.