Noticias
Uso de frutos de anonáceas, generosos en sabor y olor, como biopesticidas y biocombustibles

Investigadores de la Universidad Autónoma Chapingo (UACh) promueven el uso de la cáscara, pulpa y semillas de anonáceas, en la industria del campo como biopesticidas y biocombustible, orientando a técnicos y productores a crear estrategias de manejo sustentable de plagas y enfermedades, impulsando la innovación en el empleo de subproductos frutícolas.
“Se habla de la guanábana, chincuya, saramuyo e ilama, frutas principalmente distribuidas en regiones tropicales y subtropicales pertenecientes a la familia Annonace, un grupo botánico tan antiguo que pueden ser considerados como fósiles vivientes”, dijo la Dra. Eloísa Vidal Lezama, profesora investigadora del Departamento de Fitotecnia de la UACh.
El estudio fue orientado a identificar y cuantificar los compuestos fenólicos, el metabolismo secundario y la fisiología de germinación en frutos de anonáceas en los estados de Yucatán, Chiapas y Estado de México.
De acuerdo con la Dra. Eloísa Vidal Lezama: “La investigación de las anonáceas es valiosa desde diferentes puntos de vista, siendo el alimenticio y medicinal de los más abordados; sin embargo nuestro objeto de estudio se delimita al terreno de la agronomía. Sabemos que estas especies contienen una amplia gama de compuestos como alcaloides, terpenoides, compuestos fenólicos, flavonoides, acetogeninas y ácidos grasos tales como ácido linoléico, ácido oleico y ácido esteárico.
“Algunas especies no han evolucionado al mismo ritmo que aquellas domesticadas. Se trata de una familia, cuyas características primitivas y respuesta ante el estrés deben seguir siendo estudiadas para su mejor aprovechamiento”.

La especialista explicó que “si la planta no se siente genera metabolitos con cierta toxicidad, tal vez debe parte de su sobrevivencia a dicha respuesta y ya la domesticación provocada por el cultivo de las especies es muy probable que esa condición se vaya perdiendo”.
En el campo de la ciencia la bioactividad de este tipo de compuestos está asociada a su efecto citotóxico, antitumoral, antibacterial, pesticida y antimalarial. Para los investigadores de la Universidad Autónoma Chapingo es de interés que estos hallazgos sean utilizados para generar pesticidas y combustibles biológicos.
Asimismo, el estudio de la Universidad Autónoma Chapingo presenta estrategias para el entendimiento de la germinación de semillas, componente fundamental en ciclo de vida de las plantas y fuente de información para que la próxima generación se disperse, establezca, desarrolle y se reproduzca para la perpetuación de la especie.
Espectáculos
El secreto mejor guardado de Nintendo: Yoshi no se llama Yoshi

Desde su debut en Super Mario World (1990), el dinosaurio verde de lengua larga se convirtió en un ícono de los videojuegos, pero pocos saben que «Yoshi» es solo su apodo. Según el manual oficial de personajes de Nintendo publicado en 1993, su nombre completo es T. Yoshiyaur Munchakoopas —una designación que mezcla fantasía con taxonomía ficticia—. El documento, creado para estandarizar el uso de los personajes en medios, reveló también que Mario pertenece a la especie Homo nintendonus, mostrando el peculiar sentido del humor de la compañía en la era preinternet.
La biografía oficial explica que Yoshi estaba «cautivo en un huevo» hasta que Mario lo rescató, estableciendo así su lealtad eterna. Este dato curioso permaneció en relativa oscuridad hasta 2014, cuando el escritor Blake J. Harris compartió imágenes del manual en Twitter, desatando sorpresa entre fans. El nombre científico, aunque jamás usado en los juegos, refleja la meticulosidad de Nintendo al construir su universo, incluso en detalles marginales.
Más allá del individuo verde con vientre blanco, «Yoshi» también designa a toda una especie de dinosaurios multicolores. El manual especificaba hasta los códigos Pantone de sus colores —como el rojo del sillín (PMS 185) o el verde esmeralda de su piel (PMS 354)—, demostrando el control creativo que ejercía Nintendo sobre sus propiedades intelectuales en los 90. Estas guías eran vitales para editoriales y licenciatarios antes de la era digital.
Aunque el nombre T. Yoshiyaur Munchakoopas nunca apareció en pantalla, su existencia plantea preguntas sobre el lore oculto de la franquicia. ¿Por qué «Munchakoopas»? ¿Es acaso un híbrido evolutivo entre Yoshis y Koopas? Los teóricos de Mario especulan que podría ser un guiño a la rivalidad entre especies en el universo del juego, aunque Nintendo nunca lo ha confirmado.

Tres décadas después, este detalle sigue fascinando a los fans. Mientras Yoshi salta a nuevas generaciones en Mario Kart o Super Smash Bros., su nombre científico permanece como una curiosidad de culto —un recordatorio de que incluso los íconos más familiares pueden guardar secretos inesperados—. Quizás algún día Nintendo decida revivir esta peculiar nomenclatura, pero por ahora, «Yoshi» sigue siendo suficiente para el dinosaurio más querido de los videojuegos.
Con información de: Hipertextual.com
Noticias
La IA “revive” a una víctima de homicidio durante un juicio en Arizona y reabre el debate sobre su uso ético

El uso de inteligencia artificial para recrear digitalmente a víctimas de violencia está abriendo un nuevo capítulo en los sistemas judiciales. En un caso pionero en Arizona, Christopher Pelkey, un veterano militar asesinado en 2021, «testimonié» en su propio juicio a través de un avatar generado por IA que recreó su voz, apariencia y personalidad. El video, creado por su familia, incluyó mensajes de perdón hacia su asesino y reflexiones sobre la vida que perdió, logrando conmover al juez y al público. Este innovador recurso contribuyó a la condena de 10.5 años del homicida, aunque su defensa ya apeló argumentando indebida influencia emocional.
Más allá de los tribunales, la IA también se ha convertido en herramienta de activismo. En México, la campaña «Seguimos Hablando» recreó digitalmente al periodista Javier Valdez —asesinado en 2017— para denunciar la violencia contra la prensa. El avatar del premiado reportero interpeló directamente al presidente López Obrador, exigiendo justicia: «No pueden matarme dos veces», declaró la versión digital. Proyectos como este evidencian el potencial de la tecnología para visibilizar crímenes impunes, aunque también plantean dilemas sobre la manipulación de la memoria de las víctimas.
Las cortes estadounidenses comienzan a regular estos usos. Arizona —donde ocurrió el caso Pelkey— permite declaraciones de impacto en formatos digitales, pero la Corte Suprema estatal ya advirtió riesgos. «La IA puede distorsionar el curso de la justicia si se usa inadecuadamente», señaló la ministra Ann Timmer, quien creó un comité para establecer guías éticas. El principal desafío: equilibrar el derecho a la reparación simbólica de las familias con la necesidad de evitar manipulaciones emocionales que afecten la imparcialidad judicial.
Expertos legales dividen aguas. Mientras algunos ven en estos avatares una forma de humanizar procesos judiciales técnicos, otros alertan sobre «el efecto CSI»: la posibilidad de que recreaciones hiperrealistas —pero parciales— inclinen indebidamente a jueces y jurados. «No es lo mismo mostrar fotos de la víctima que un simulacro que hable y gesticule», advierte el profesor de derecho Ethan Katsh. El riesgo aumenta cuando las familias, con legítimo dolor, controlan el mensaje del avatar.
A medida que esta práctica se expande, crece el llamado a regulaciones específicas. Organizaciones como el Instituto AI Now proponen tres salvaguardas, verificación independiente del contenido generado, consentimiento explícito de los familiares y advertencias claras sobre la naturaleza simulada del testimonio. Mientras tanto, casos como el de Pelkey y Valdez siguen demostrando el poder de la IA para devolver voz a quienes se la arrebataron; pero también su capacidad para reabrir heridas y cuestionar los límites entre justicia, tecnología y duelo.
Con información de: Wired en Español.com
Noticias
Los maestros están usando ChatGPT, y algunos alumnos no están contentos

La polémica por el uso de inteligencia artificial en la educación ha dado un giro inesperado: ahora son los estudiantes quienes denuncian que sus profesores recurren excesivamente a herramientas como ChatGPT para preparar clases, calificar trabajos e incluso dar retroalimentación. El caso de Ella Stapleton, estudiante de negocios en la Universidad Northeastern, ejemplifica este conflicto. Al descubrir que su profesor usó ChatGPT para generar apuntes sobre liderazgo —incluyendo instrucciones como «amplía todas las áreas»— presentó una queja formal exigiendo el reembolso de sus US$8,000 de matrícula, argumentando hipocresía académica.
Lo que comenzó como pánico por estudiantes haciendo trampa con IA ahora se ha invertido. Plataformas como Rate My Professors registran crecientes quejas sobre docentes que usan chatbots sin transparentarlo, mientras alumnos señalan el contrasentido de pagar caras matrículas por educación automatizada. Encuestas de Tyton Partners muestran que el porcentaje de profesores universitarios usando IA generativa casi se duplicó en un año (del 18% en 2023 al 34% en 2024), impulsado por la presión de reducir cargas laborales. Empresas como OpenAI ya desarrollan versiones «empresariales» de chatbots para instituciones educativas.
Algunos casos rayan en lo absurdo. Marie, estudiante de antropología en Southern New Hampshire University, descubrió que su «sobresaliente» venía con feedback generado por ChatGPT, incluyendo la solicitud de su profesora de dar «comentarios realmente agresivos». Aunque la universidad defiende el uso «ético» de la IA como complemento, casos como este llevaron a Marie a transferirse de institución. Para Robert MacAuslan, vicerrector de IA de la universidad, el límite está en que la tecnología «nunca sustituya la creatividad y supervisión humanas».
Los docentes están divididos. Mientras algunos, como Paul Shovlin (Universidad de Ohio), insisten en que la retroalimentación humana es irremplazable, otros como Shingirai Kwaramba (Virginia Commonwealth University) celebran cómo ChatGPT reduce su tiempo de planeación de días a horas. David Malan (Harvard) integró un chatbot en su curso de programación, liberando horarios de tutoría para interacciones más significativas. Katy Pearce (Universidad de Washington) entrenó un IA con sus criterios de evaluación para dar feedback instantáneo, reconociendo que eventualmente reemplazará funciones de asistentes docentes.
La falta de estándares claros genera tensiones. Tras su queja, Stapleton solo recibió de Northeastern una nueva política que exige atribuir el uso de IA —demasiado tarde para su caso. Su profesor, Rick Arrowood, admitió no haber revisado lo suficiente los materiales generados por Gamma y Perplexity AI. Como él, muchos educadores navegan este nuevo terreno ético a tientas, balanceando eficiencia con autenticidad pedagógica. Mientras las universidades corren por establecer normas, el debate central persiste: cuando la IA hace el trabajo pesado de enseñar, ¿qué valor agregado justifica el alto costo de la educación superior?
Con información de: The New York Times en Español.com
-
Espectáculos5 días ago
John Wick 5 será «muy diferente», adelanta el director Chad Stahelski tras la confirmación de Keanu Reeves
-
Espectáculos5 días ago
Spider-Man 4: Brand New Day afina su reparto con pistas sobre Miles Morales
-
Entrevistas4 días ago
Galactic Kindom organiza tercera edición del Festival de Bandas Emergentes
-
Espectáculos3 días ago
Say Goodbye, será parte de la selección oficial del Festival Internacional de Cine UNAM FICUNAM
-
Espectáculos2 días ago
Museo de la Máscara en Acapulco: un recorrido por la tradición y el simbolismo
-
Entrevistas3 días ago
Los Doctores Apapachos son payasos que humanizan la hospitalización de los niños, conoce su noble labor.
-
Espectáculos5 días ago
Los problemas graves a los que se enfrentará la futura serie de Harry Potter
-
Noticias2 días ago
Club Campestre El Cristo en Atlixco realizará XXXIV Torneo Anual de Golf