Noticias
Puebla cuenta con un gobierno que promueve y reconoce la cultura

Puebla cuenta con un gobierno estatal que promueve y reconoce la cultura, así como a sus diferentes artistas, destacó el gobernador Sergio Salomón al presidir la inauguración de la exposición «Así Sueño», del artista Amador Montes, en el Museo Internacional del Barroco (MIB), que consta de ocho obras monumentales y un video interactivo.
En compañía de la presidenta honoraria del Patronato del SEDIF, Gaby Bonilla y del secretario de Cultura, Enrique Glockner Corte, el titular del Ejecutivo recalcó que su administración ha logrado garantizar el acceso a la cultura mediante distintas iniciativas realizadas. Agregó que, con dicha exposición, Amador Montes abre una puerta a su mundo interior en un viaje visual que desafía cuestionar las percepciones humanas.
La directora de Museos Puebla, Anel Nochebuena dijo que Amador Montes, a través de su arte, desea que los pueblos y sus artesanos sean revalorados. Aseguró que cumple con la misión de valorar a los jóvenes que sueñan y sus antepasados revolucionarios, con una concepción profunda de la cultura de México y la familia como elemento central de la sociedad.
El artista oaxaqueño, Amador Montes, quien cuenta con más de 130 exposiciones individuales y colectivas en América, Europa y Asia, comentó que la experiencia inmersiva se centrará en llevar a los visitantes a un viaje a través de su universo con técnicas y temas únicos.
Las y los interesados podrán disfrutar de esta exposición en un horario de 10:00 a 19:00 horas, de lunes a sábado, con el costo de la entrada general (95 pesos) y entrada especial (45 pesos, residentes de Puebla, niños menores de 12, tercera edad y personas con discapacidad); los domingos el acceso es gratuito y este sábado 13 de abril, que es “Noche de Museos”.
La oferta cultural para lo que resta del mes de septiembre, puede consultarse en las redes sociales: @museospuebla (Facebook e Instagram), @PueblaMuseos (X) y en el sitio web sc.puebla.gob.mx
Espectáculos
El secreto mejor guardado de Nintendo: Yoshi no se llama Yoshi

Desde su debut en Super Mario World (1990), el dinosaurio verde de lengua larga se convirtió en un ícono de los videojuegos, pero pocos saben que «Yoshi» es solo su apodo. Según el manual oficial de personajes de Nintendo publicado en 1993, su nombre completo es T. Yoshiyaur Munchakoopas —una designación que mezcla fantasía con taxonomía ficticia—. El documento, creado para estandarizar el uso de los personajes en medios, reveló también que Mario pertenece a la especie Homo nintendonus, mostrando el peculiar sentido del humor de la compañía en la era preinternet.
La biografía oficial explica que Yoshi estaba «cautivo en un huevo» hasta que Mario lo rescató, estableciendo así su lealtad eterna. Este dato curioso permaneció en relativa oscuridad hasta 2014, cuando el escritor Blake J. Harris compartió imágenes del manual en Twitter, desatando sorpresa entre fans. El nombre científico, aunque jamás usado en los juegos, refleja la meticulosidad de Nintendo al construir su universo, incluso en detalles marginales.
Más allá del individuo verde con vientre blanco, «Yoshi» también designa a toda una especie de dinosaurios multicolores. El manual especificaba hasta los códigos Pantone de sus colores —como el rojo del sillín (PMS 185) o el verde esmeralda de su piel (PMS 354)—, demostrando el control creativo que ejercía Nintendo sobre sus propiedades intelectuales en los 90. Estas guías eran vitales para editoriales y licenciatarios antes de la era digital.
Aunque el nombre T. Yoshiyaur Munchakoopas nunca apareció en pantalla, su existencia plantea preguntas sobre el lore oculto de la franquicia. ¿Por qué «Munchakoopas»? ¿Es acaso un híbrido evolutivo entre Yoshis y Koopas? Los teóricos de Mario especulan que podría ser un guiño a la rivalidad entre especies en el universo del juego, aunque Nintendo nunca lo ha confirmado.

Tres décadas después, este detalle sigue fascinando a los fans. Mientras Yoshi salta a nuevas generaciones en Mario Kart o Super Smash Bros., su nombre científico permanece como una curiosidad de culto —un recordatorio de que incluso los íconos más familiares pueden guardar secretos inesperados—. Quizás algún día Nintendo decida revivir esta peculiar nomenclatura, pero por ahora, «Yoshi» sigue siendo suficiente para el dinosaurio más querido de los videojuegos.
Con información de: Hipertextual.com
Noticias
La IA “revive” a una víctima de homicidio durante un juicio en Arizona y reabre el debate sobre su uso ético

El uso de inteligencia artificial para recrear digitalmente a víctimas de violencia está abriendo un nuevo capítulo en los sistemas judiciales. En un caso pionero en Arizona, Christopher Pelkey, un veterano militar asesinado en 2021, «testimonié» en su propio juicio a través de un avatar generado por IA que recreó su voz, apariencia y personalidad. El video, creado por su familia, incluyó mensajes de perdón hacia su asesino y reflexiones sobre la vida que perdió, logrando conmover al juez y al público. Este innovador recurso contribuyó a la condena de 10.5 años del homicida, aunque su defensa ya apeló argumentando indebida influencia emocional.
Más allá de los tribunales, la IA también se ha convertido en herramienta de activismo. En México, la campaña «Seguimos Hablando» recreó digitalmente al periodista Javier Valdez —asesinado en 2017— para denunciar la violencia contra la prensa. El avatar del premiado reportero interpeló directamente al presidente López Obrador, exigiendo justicia: «No pueden matarme dos veces», declaró la versión digital. Proyectos como este evidencian el potencial de la tecnología para visibilizar crímenes impunes, aunque también plantean dilemas sobre la manipulación de la memoria de las víctimas.
Las cortes estadounidenses comienzan a regular estos usos. Arizona —donde ocurrió el caso Pelkey— permite declaraciones de impacto en formatos digitales, pero la Corte Suprema estatal ya advirtió riesgos. «La IA puede distorsionar el curso de la justicia si se usa inadecuadamente», señaló la ministra Ann Timmer, quien creó un comité para establecer guías éticas. El principal desafío: equilibrar el derecho a la reparación simbólica de las familias con la necesidad de evitar manipulaciones emocionales que afecten la imparcialidad judicial.
Expertos legales dividen aguas. Mientras algunos ven en estos avatares una forma de humanizar procesos judiciales técnicos, otros alertan sobre «el efecto CSI»: la posibilidad de que recreaciones hiperrealistas —pero parciales— inclinen indebidamente a jueces y jurados. «No es lo mismo mostrar fotos de la víctima que un simulacro que hable y gesticule», advierte el profesor de derecho Ethan Katsh. El riesgo aumenta cuando las familias, con legítimo dolor, controlan el mensaje del avatar.
A medida que esta práctica se expande, crece el llamado a regulaciones específicas. Organizaciones como el Instituto AI Now proponen tres salvaguardas, verificación independiente del contenido generado, consentimiento explícito de los familiares y advertencias claras sobre la naturaleza simulada del testimonio. Mientras tanto, casos como el de Pelkey y Valdez siguen demostrando el poder de la IA para devolver voz a quienes se la arrebataron; pero también su capacidad para reabrir heridas y cuestionar los límites entre justicia, tecnología y duelo.
Con información de: Wired en Español.com
Noticias
Los maestros están usando ChatGPT, y algunos alumnos no están contentos

La polémica por el uso de inteligencia artificial en la educación ha dado un giro inesperado: ahora son los estudiantes quienes denuncian que sus profesores recurren excesivamente a herramientas como ChatGPT para preparar clases, calificar trabajos e incluso dar retroalimentación. El caso de Ella Stapleton, estudiante de negocios en la Universidad Northeastern, ejemplifica este conflicto. Al descubrir que su profesor usó ChatGPT para generar apuntes sobre liderazgo —incluyendo instrucciones como «amplía todas las áreas»— presentó una queja formal exigiendo el reembolso de sus US$8,000 de matrícula, argumentando hipocresía académica.
Lo que comenzó como pánico por estudiantes haciendo trampa con IA ahora se ha invertido. Plataformas como Rate My Professors registran crecientes quejas sobre docentes que usan chatbots sin transparentarlo, mientras alumnos señalan el contrasentido de pagar caras matrículas por educación automatizada. Encuestas de Tyton Partners muestran que el porcentaje de profesores universitarios usando IA generativa casi se duplicó en un año (del 18% en 2023 al 34% en 2024), impulsado por la presión de reducir cargas laborales. Empresas como OpenAI ya desarrollan versiones «empresariales» de chatbots para instituciones educativas.
Algunos casos rayan en lo absurdo. Marie, estudiante de antropología en Southern New Hampshire University, descubrió que su «sobresaliente» venía con feedback generado por ChatGPT, incluyendo la solicitud de su profesora de dar «comentarios realmente agresivos». Aunque la universidad defiende el uso «ético» de la IA como complemento, casos como este llevaron a Marie a transferirse de institución. Para Robert MacAuslan, vicerrector de IA de la universidad, el límite está en que la tecnología «nunca sustituya la creatividad y supervisión humanas».
Los docentes están divididos. Mientras algunos, como Paul Shovlin (Universidad de Ohio), insisten en que la retroalimentación humana es irremplazable, otros como Shingirai Kwaramba (Virginia Commonwealth University) celebran cómo ChatGPT reduce su tiempo de planeación de días a horas. David Malan (Harvard) integró un chatbot en su curso de programación, liberando horarios de tutoría para interacciones más significativas. Katy Pearce (Universidad de Washington) entrenó un IA con sus criterios de evaluación para dar feedback instantáneo, reconociendo que eventualmente reemplazará funciones de asistentes docentes.
La falta de estándares claros genera tensiones. Tras su queja, Stapleton solo recibió de Northeastern una nueva política que exige atribuir el uso de IA —demasiado tarde para su caso. Su profesor, Rick Arrowood, admitió no haber revisado lo suficiente los materiales generados por Gamma y Perplexity AI. Como él, muchos educadores navegan este nuevo terreno ético a tientas, balanceando eficiencia con autenticidad pedagógica. Mientras las universidades corren por establecer normas, el debate central persiste: cuando la IA hace el trabajo pesado de enseñar, ¿qué valor agregado justifica el alto costo de la educación superior?
Con información de: The New York Times en Español.com
-
Espectáculos5 días ago
John Wick 5 será «muy diferente», adelanta el director Chad Stahelski tras la confirmación de Keanu Reeves
-
Espectáculos6 días ago
Spider-Man 4: Brand New Day afina su reparto con pistas sobre Miles Morales
-
Entrevistas4 días ago
Galactic Kindom organiza tercera edición del Festival de Bandas Emergentes
-
Espectáculos3 días ago
Say Goodbye, será parte de la selección oficial del Festival Internacional de Cine UNAM FICUNAM
-
Espectáculos2 días ago
Museo de la Máscara en Acapulco: un recorrido por la tradición y el simbolismo
-
Entrevistas3 días ago
Los Doctores Apapachos son payasos que humanizan la hospitalización de los niños, conoce su noble labor.
-
Espectáculos6 días ago
Los problemas graves a los que se enfrentará la futura serie de Harry Potter
-
Noticias2 días ago
Club Campestre El Cristo en Atlixco realizará XXXIV Torneo Anual de Golf