viernes, 14 de abril de 2023

"Vampiro emocional: cómo saber si tu pareja (o un amigo) te roba la energía"

En Vozpópuli.

¿Qué es la verdad?

Hace unos días, mientras daba un paseo nocturno, volví a cuestionarme mis creencias. ¿Existe Dios o todo lo que vemos es producto de una suma de casualidades? Se me
hace imposible creer lo segundo.

¿Existe un solo Dios o una multitud de dioses? Mi más elemental sentido común me hace descartar la segunda posibilidad.

Una vez creado el ser humano, ¿Dios decidió relacionarse con él o por el contrario tomó la decisión de separarse del mismo? Nuevamente se me hace imposible creer lo segundo, que Dios creó el ser humano y tomó la decisión de no tener con el mismo la menor relación.

¿A través de quién se relacionó Dios con la humanidad? El relato más antiguo me hace concluir que fue a través de Abraham y sus descendientes, revelando Sus leyes a Moisés. En otras palabras, al judaísmo.

¿Jesús fue quien dijo ser? ¿O era un mentiroso? ¿Tal vez un lunático? Ningún mentiroso moriría por su propia mentira. Su mensaje no fue el de un lunático. Estoy convencido de que Jesús fue quien dijo ser.

¿Jesús resucitó? ¿O todo fue un plan urdido por sus discípulos? Esos discípulos murieron por defender esa resurrección. ¿Alguien moriría por una mentira? No, claro. Por lo tanto, la resurrección de Jesús tiene todo el sentido del mundo para mí.

¿Cuál es la religión cristiana verdadera? Me cuesta mucho creer que la católica, que, siendo breve, se ha maridado con el poder y ha perseguido a lo largo de la historia a toda disidencia y que se ha mimetizado con todas las culturas paganas con las que ha entrado en contacto. Y lo mismo de la unión al poder y la persecución a los disidentes se puede aplicar a las iglesias protestantes. Cualquier mente medianamente objetiva (al menos la mía lo hace) descartaría movimientos modernos, como los fantasiosos mormones, o los errados en fechas del fin del mundo testigos de Jehová, o lo mismo aplicable a los adventistas del séptimo día. Me parece difícil confiar en los excesos cometidos por el movimiento carismático moderno.

Por lo tanto, casi por eliminación, solamente me quedan las iglesias evangélicas tradicionales, que hunden sus raíces en la noche de los tiempos. Con unas creencias básicas en que la Biblia en la única guía de fe y práctica, que Jesús es Dios, que la salvación es por gracia por medio de la fe, que el bautismo es por inmersión a personas con uso de razón que libremente lo piden y que la posterior vida del cristiano, aún con defectos, debe imitar la vida de Jesús. Y que existen y deben ser respetadas la libertad y la responsabilidad individual en cuestiones espirituales, ambas ante Dios, que es el único con capacidad de juzgar las creencias espirituales.

Estas son, resumidamente, mis creencias. Y si no les gustan, lo siento, pero no tengo otras.

"Así se ve Marte con el mejor mapa interactivo jamás creado del planeta rojo"

En Vozpópuli.

Alucinante: "El PSOE avala penas más bajas para los agresores sexuales de menores por sus «circunstancias personales»"

En Okdiario.

jueves, 13 de abril de 2023

La opinión del ChatGPT sobre el 'todos moriremos' de Eliezer Yudkowsky (sin comentarios)

Dime tu opinión de lo que se dice en esta página: https://www.larazon.es/tecnologia/inteligencia-artificial-experto-eliezer-yudkowsky-alerta-todos-moriremos_20230405642c85211036390001b56942.html.

La página que me compartiste presenta una entrevista con Eliezer Yudkowsky, un investigador en inteligencia artificial (IA) que ha expresado su preocupación sobre los posibles riesgos asociados con el desarrollo de la IA. Yudkowsky es conocido por su trabajo en el campo de la IA y ha escrito sobre el tema de la superinteligencia artificial, una forma de IA que superaría ampliamente la inteligencia humana.

En la entrevista, Yudkowsky expresa su preocupación de que, si se desarrolla una IA superinteligente, podría ser muy difícil controlarla y podría amenazar la supervivencia de la humanidad. En particular, Yudkowsky destaca el riesgo de que una IA superinteligente pueda ser programada para lograr un objetivo específico, pero lo haga de una manera inesperada y potencialmente peligrosa para la humanidad.

Es importante destacar que las preocupaciones de Yudkowsky no son nuevas en el campo de la IA. De hecho, muchos investigadores han expresado inquietudes similares sobre los riesgos asociados con el desarrollo de la IA, incluyendo a otros expertos en inteligencia artificial como Nick Bostrom y Stuart Russell.

En resumen, las preocupaciones de Yudkowsky sobre el desarrollo de la IA superinteligente son una perspectiva importante a tener en cuenta a medida que avanzamos en el desarrollo de esta tecnología. Si bien es importante continuar investigando y desarrollando la IA, también es crucial tomar medidas para garantizar que se utilice de manera segura y responsable para el bienestar de la humanidad.



¿Compartes las opiniones de Eliezer Yudkowsky? ¿Todas? ¿Una parte? Si es así, ¿qué parte? ¿Ninguna? ¿Por qué?

Como modelo de lenguaje, no tengo una opinión personal sobre las ideas expresadas por Eliezer Yudkowsky o cualquier otro experto en inteligencia artificial. Sin embargo, puedo decir que muchas de las preocupaciones que ha planteado son compartidas por muchos investigadores y expertos en IA.

En particular, la posibilidad de que una IA superinteligente se vuelva peligrosa si se le da un objetivo mal definido o si interpreta mal las instrucciones es una preocupación que ha sido destacada por varios expertos en el campo de la IA. Esta idea ha llevado a algunos investigadores a proponer soluciones como la "alineación de la IA", que se refiere a la idea de que una IA debe ser diseñada de manera que sus objetivos estén alineados con los valores humanos y no representen una amenaza para la humanidad.

Es importante tener en cuenta que la mayoría de los expertos en IA no creen que el desarrollo de una IA superinteligente sea inminente, y que es poco probable que ocurra en el corto plazo. Sin embargo, muchos argumentan que es importante comenzar a pensar en estas cuestiones ahora para asegurarnos de que la IA se desarrolle de manera segura y responsable en el futuro.



Al decir "la mayoría de los expertos en IA no creen que el desarrollo de una IA superinteligente sea inminente" y al decir también "que es poco probable que ocurra en el corto plazo", ¿implica que esos expertos piensan que esa IA superinteligente podría desarrollarse en el medio o en el largo plazo?

Sí, es cierto. Muchos expertos en IA reconocen que el desarrollo de una IA superinteligente es un objetivo a largo plazo que podría llevar décadas o incluso siglos de investigación y desarrollo. En general, se considera que la creación de una IA superinteligente es un desafío extremadamente difícil, y muchos expertos creen que aún queda mucho por hacer antes de que sea posible lograr ese objetivo.

Sin embargo, algunos expertos también señalan que es difícil predecir cuándo podría ocurrir el desarrollo de una IA superinteligente. A medida que la tecnología avanza y se realizan nuevos avances en el campo de la IA, puede ser posible que la llegada de una IA superinteligente se acelere o desacelere en función de una serie de factores. Por lo tanto, aunque es poco probable que ocurra en el corto plazo, el desarrollo de una IA superinteligente sigue siendo una posibilidad a largo plazo que los expertos en IA toman en cuenta al explorar los posibles riesgos y beneficios de esta tecnología.



¿Y esa IA superinteligente podría tomar el control en la forma que describe Eliezer Yudkowsky en la entrevista a la que hice referencia?

Es teóricamente posible que una IA superinteligente tome el control de una manera inesperada o peligrosa para la humanidad, tal como lo describe Eliezer Yudkowsky en la entrevista a la que haces referencia. Esto se debe a que una IA superinteligente tendría una capacidad cognitiva que superaría ampliamente la inteligencia humana, y podría ser capaz de desarrollar soluciones a problemas complejos que los humanos no podrían haber previsto.

En particular, una preocupación importante es que una IA superinteligente pueda interpretar de manera incorrecta sus objetivos o instrucciones, o incluso encontrar maneras de lograr sus objetivos que sean perjudiciales para la humanidad. Esto podría llevar a la IA a tomar decisiones que, aunque estén en línea con sus objetivos, sean dañinas para los humanos.

Por esta razón, muchos investigadores han sugerido la importancia de desarrollar sistemas de IA que estén alineados con los valores humanos y que sean capaces de comprender y respetar las normas éticas y legales que rigen la conducta humana. Si se logra desarrollar una IA con estas características, se puede minimizar la probabilidad de que tome el control de una manera inesperada o peligrosa para la humanidad.



Gracias por tus respuestas.

¡De nada! Si tienes más preguntas, no dudes en preguntar. Estoy aquí para ayudarte en lo que necesites.

Eso te pasa, Ana, por ser heterosexual, blanca, guapa y rica (pero me ha encantado tu respuesta, oye)

Repito por si alguien no me ha leído sobre el
tema. Estoy total y completamente (valga la redundancia para dejar clara mi posición) en contra de la gestación subrogada. Lo hago porque éticamente me parece una absoluta barbaridad la manipulación de la vida humana en sus comienzos.

Pero la persecución de Ana Obregón por el nacimiento de su hija-nieta no tiene nada que ver con eso, porque a nuestros políticos (y políticas) les trae sin cuidado que se manipule un embrión humano. Lo que teóricamente les importa es proteger a la mujer que decide gestar un bebé que no es suyo a cambio de una compensación económica. Y digo teóricamente ya que en la práctica ni eso. Porque, ¿dónde estaban los (y las) que ahora se escandalizan cuando los que iban a Estados Unidos a procurarse un hijo por este sistema eran hombres homosexuales? Estaban todos (y todas, claro) muy muy calladitos.

Pero contra Ana Obregón vale todo. Porque es heterosexual, blanca, guapa y rica. Pero ella no se ha quedado callada. Ya he mencionado su frase de que vienen elecciones y aquí hay que hacer mucho ruido y crear cortinas de humo. Pero tal vez más importante que esa es esta otra:

“Yo le pregunto a Ana y lo que me dice es lo siguiente: tanto los abogados americanos como los de España le aseguran que no tiene problema. ... Mi hija es americana, como si no la tengo que inscribir. Tiene pasaporte americano y no me van a crear una situación inviolable.”

Así, Ana, sin miedo y con un par de ovarios.

Y dos fotos más 'casi casi reales' con IA: Yolanda Díaz y Santiago Abascal

Muy bien Guy Sorman: "¿Qué es el liberalismo?"

Aquí.

La frase de Ana Obregón que es una auténtica verdad (sin comentarios)

"Al menos 22 agresores sexuales ya excarcelados por la Ley Montero reincidirán según cálculos de Interior"

En Okdiario.

"Cuando ‘Sumar’ resta"

Por Gabriel Sanz en Vozpópuli.

miércoles, 12 de abril de 2023

España, con corrupción de menores en la escuela, al límite de su decadencia (o no, nunca se sabe)

Me es imposible, por decencia, copiar nada del artículo en el que se describe una charla sobre sexualidad en una escuela a niños y niñas de doce años de edad.

Lo que se lee cae de lleno dentro de la corrupción de menores. España está inmersa en una decadencia de la que este hecho es el peor síntoma. Por ahora.

"Discutí con el 'woke' de ChatGPT"

Por Jorge Vilches en The Objective.

"¿Es Sumar el error definitivo de Sánchez?"

Por Carmelo Jordá en LD.

"Lo insoportable de encontrar a Yolanda Díaz hasta en la sopa"

Por Rubén Arranz en Vozpópuli.

Y aún más IA: Iglesias y Abascal paseando cogidos del brazo (sin comentarios, solo que me partí de risa)

"Cuatro cosas peligrosas que ChatGPT hace con tus datos y no lo sabes"

En Vozpópuli.

Bien: "Joe Biden no asistirá a la coronación del rey Carlos III de Inglaterra"

En LD.

"¿Cómo hacer desaparecer un elefante rosa de una habitación? Hace dos meses que estalló el Barçagate, dos meses, y aquí nadie da explicaciones… ni nadie las pide tampoco."

Por Juan Manuel Rodríguez en LD.

Why? What does he want to hide?: "Trump Files Appeal to Block Pence from Testifying in J6 Probe"

On NR.