La partida del “padrino de la inteligencia artificial” no anticipa el papel de las máquinas en nuestro futuro, pero es un aviso importante. Hoy es el momento de que empecemos a actuar y movilizar tanto a la humanidad como a cada individuo para que las terribles visiones que se conocen en los guiones de películas y libros de ciencia ficción no se hagan realidad. – dice el Dr. Salon 24 Piotr Łuczuk, experto en medios, experto en el campo de la ciberseguridad, Universidad Cardinal Stefan Wyszyński.
A mediados de abril hablamos de inteligencia artificial. Me tranquilizó, de hecho, que el peligro de que los robots tomen el poder es exagerado. Depende de nosotros decidir de qué manera van las cosas. Ha pasado menos de un mes y se han producido varios hechos inquietantes. En primer lugar, Jeffrey Hinton, el pionero en la creación de inteligencia artificial, dejó Google. Simplemente dijo que lamentaba lo que había hecho. ¿Cambia su enfoque del problema?
Dr. Pyotr Gotczuk: Jeffrey Hinton es sin duda una figura importante y se le conoce como el padrino de la inteligencia artificial. Sin embargo, su decisión no influye en la percepción del papel de las máquinas en el futuro de la humanidad en una perspectiva más amplia. Es solo una fuerte advertencia. Él dice que las personas que en un momento estuvieron completamente fascinadas por las innovaciones tecnológicas, especialmente el desarrollo de la robótica y la inteligencia artificial, deberían haber sido conscientes de la dirección que tomaría este desarrollo, y parece que adquirieron esta conciencia demasiado tarde. En el curso de la investigación de inteligencia artificial, de repente muchas personas están haciendo un cambio drástico. Los creadores de Internet no se arrepintieron de haber invertido en su desarrollo. Es lo mismo con la inteligencia artificial. Me parece que dentro de décadas estaremos hablando de IA de la forma en que hablamos o pensamos sobre Internet hoy. Sin embargo, en mi opinión, estos miedos histéricos alimentados por los medios son exagerados. Porque hemos estado hablando de IA durante mucho tiempo y creo que todos la estamos sobreestimando un poco. Sólo la información asombrosa penetra en la conciencia social. O malo u horrible.
¿significado?
Incluso hay informes de que Sophia, el robot, ha obtenido la ciudadanía saudí. Con la aparición del término personalidad electrónica, se tiene en cuenta la introducción de algunas normas legales, éticas y morales que se aplican a este tipo de personas.
Y, francamente, esto es muy molesto.
De hecho, aquí tenemos un enorme margen para la ofensiva. Lo que llamó la atención de Isaac Asimov hace años, hace décadas en sus libros, cuando formuló estas famosas leyes de la robótica, fueron tres, luego agregó la llamada ley cero, que se suponía protegería a la humanidad de la rebelión de las máquinas, contra todo tipo de consecuencias de los robots. Hay varios tipos de abuso, o efectos secundarios ocasionales, de la interacción hombre-máquina. Sin embargo, pronto quedó claro que se trataba de literatura científica popular, en lugar de ciencia real. La vida escribió escenarios completamente diferentes. Y las máquinas se rebelan y las máquinas toman el poder, al menos en este punto, es poco probable. Pero hay otros peligros que pueden haber estado en la mente de Geoffrey Hinton.
¿por ejemplo?
Puede haber una situación en la que las personas dejen que el robot decida si salvar la vida de una persona mayor en primer lugar, que tiene mucha experiencia y que puede contribuir a la sociedad con esa experiencia, o la vida de un niño que tiene una vida plena por delante pero que también es un desconocido. El bot tomará esta decisión de forma binaria. Su decisión será cero, no se guiará por los sentimientos y emociones, ya sea que conozca a la persona o no, ya sea que la ame y la aprecie o no. Y aquí entramos en los matices, llegamos al momento en que los creadores de la IA se dieron cuenta de todo lo que la IA puede hacer. Cuánto más pueden lograr, pero probablemente son más conscientes de la cantidad de amenazas asociadas con su desarrollo posterior, si no se coloca en un marco estricto formal, legal, moral y éticamente. Y este es ahora un reto para los próximos años, no para décadas, sino para los años venideros. El punto es que estamos creando estándares morales, éticos y legales que AI utilizará. ¿El propio robot, su propietario, su fabricante o alguien que haya realizado, por ejemplo, un mantenimiento deficiente, será responsable de los accidentes causados por el robot?
O tal vez esa responsabilidad se desdibuje, como en el caso de las redes sociales, donde una mujer estadounidense grande y libre ya reina suprema. Nadie tiene esta responsabilidad personal. Por supuesto, puedes intentar, medio en broma, conectarte a Facebook y llamar a la policía allí. Pero, de hecho, si la cuenta de alguien ha sido prohibida, o se ha eliminado algún contenido, o la monetización o el acceso son muy limitados, este argumento es básicamente imposible de ganar. No podemos hacer cumplir nuestros derechos y obligaciones, aunque existen tales disposiciones en el Reglamento. En el caso de las redes sociales, el momento de organizarlas adecuadamente ha sido insomne. Espero que no nos durmamos este momento en el contexto de los robots en nuestros hogares, en el contexto de la inteligencia artificial. Por supuesto, solo puedo reiterar aquí que los robots nos rodean desde hace años, están a nuestro alrededor, en nuestros hogares, por ejemplo, lámparas fotovoltaicas que reconocen si una persona aparece dentro del alcance y luego enciende la luz, o un animal -entonces no se enciende. Sin embargo, es un poco diferente con la inteligencia artificial, porque es un conjunto ampliamente conocido de diferentes tipos de algoritmos que utilizan el mecanismo de aprendizaje automático, y un buen ejemplo de la interacción humana con la inteligencia artificial es el fenómeno de los chatbots, es decir, un mecanismo que se usa para la comunicación, para la conversación.
Los chatbots que Hinton encontraba molestos. Dijo que los algoritmos no son tan inteligentes como lo somos ahora, pero ¿es solo cuestión de tiempo?
Daré dos ejemplos. Positivo: se ha demostrado científicamente que un chatbot, que habla con los pacientes sobre temas médicos, es más empático que un médico que entrevista a un paciente. Es solo que esta simpatía no es de ninguna manera una consecuencia de la evolución, el desarrollo espiritual de una máquina, sino que está integrada en el sistema, diseñada. Se supone que debe actuar de una manera que haga agradable hablar con él. El segundo caso es igual de interesante, pero muy molesto. Por primera vez, se ha informado en principio de un gran avance o éxito en la comunicación intelectual. El trabajo se prolongó durante mucho tiempo. Pero esta semana hubo información oficial y un artículo científico al respecto. Por primera vez a una escala tan grande, ha sido posible lograr una repetibilidad muy alta y una alta precisión en la lectura de pensamientos humanos por parte de un robot. La máquina escaneó las ondas cerebrales y pudo interpretar lo que la persona estaba pensando. Si alguien estaba viendo la televisión o una película, el robot podía adivinar o leer el contenido de estas imágenes que se mostraban. Por supuesto, la traducción de los pensamientos del robot no era precisa individualmente, pero estaba bien capturada. Este es un tipo de truco.
Un truco aterrador por decir lo menos. Si un robot lee pensamientos basados en nuestros escáneres cerebrales, ni siquiera importaría si se vuelve independiente o gana afecto, burlando a los humanos. Basta con que esta tecnología caiga en manos equivocadas y sea utilizada para construir un régimen totalitario. ¿No se necesitarán informantes, porque será posible leer los pensamientos de la sociedad?
De hecho, existe el temor de que tanto los bots como la inteligencia artificial no sirvan a la humanidad ampliamente entendida, sino que comiencen a ser utilizados por grupos específicos o grupos de personas, de alguna forma. Esta es una amenaza muy grande. Han sido descritas en la literatura y predichas, por ejemplo, por Philip K. tener en «informe de la minoría». El Gran Hermano de la prosa de Orwell… Entonces se describen los escenarios, la pregunta es si hemos aprendido de ellos. Como decía, la discusión más importante que queda por delante es cómo podemos desarrollar regulaciones prudentes, gracias a las cuales, por un lado, no tiraremos al bebé con el agua del baño cuando se trata de regulaciones sobre IA y robótica. No nos desvincularemos del desarrollo de la civilización y no nos privaremos de robots, robots e inteligencia artificial, que es una gran oportunidad. Pero simplemente adaptaremos su trabajo de alguna manera, y haremos que estas soluciones sean lo suficientemente seguras para que la humanidad simplemente pueda trabajar, aprovechar el desarrollo de nuevas tecnologías y no tener que temblar por el miedo a las amenazas.
Recientemente han aparecido programas sobre inteligencia artificial en el canal de deportes de YouTube. Allí, uno de los invitados dijo algo aterrador: el peligro para la humanidad debido a la IA es del 10 por ciento. Realmente es mucho…
Nadie nos librará con un toque de varita mágica de esta amenaza, es real y no desaparecerá. Lo que importa es cómo lo enfrentamos. En primer lugar, lo importante es que no hay un 10% de posibilidades de que los robots se apoderen del mundo. Este 10 por ciento incluye el uso del desarrollo tecnológico por parte de grupos criminales y regímenes totalitarios, pero también cuestiones relacionadas con el desempleo, privando a las personas de puestos de trabajo a favor de los robots. Afortunadamente, aquí se presta cada vez más atención al hecho de que cuando se eliminen los puestos de trabajo y las máquinas sustituyan a las personas, surgirán oportunidades laborales completamente nuevas. Las líneas de producción también fueron una especie de gran avance, la revolución industrial. Si nuestros antepasados siempre negaron el progreso, creo que hoy no disfrutaremos de las soluciones tecnológicas como los automóviles, las computadoras o el internet y los robots ya mencionados. Entonces, de hecho, la conciencia y el sentido común pueden salvarnos de alguna «catástrofe de máquina».
Sin embargo, al escuchar máquinas de leer la mente, ¿es difícil ser optimista?
El motivo del optimismo es que tenemos muy buenas predicciones, escenarios detallados de lo que podría salir mal. Gracias a esto, no tenemos que aprender de los errores, porque la descripción de estos errores está básicamente a nuestro alcance. Y reitero que hoy es el momento de que empecemos a actuar ya movilizar tanto a la humanidad como a cada individuo para que las terribles visiones que se conocen en los guiones de películas y libros de ciencia ficción no se hagan realidad.
Przemyslaw Harczuk habló
Lea también:
«Fanático de la música. Solucionador profesional de problemas. Lector. Galardonado ninja de la televisión».
More Stories
Debido a las malas ventas de Star Wars: Outlaws, Ubisoft está sufriendo una gran pérdida. Assassin’s Creed: Shadows viene al rescate
¿Cómo será la próxima generación de procesadores móviles?
El material absorbe el 99%. Drizas. Incluyendo redes 5G y 6G