Page 18 - SM80
P. 18

U.M.S.N.H. Año 14/ Marzo - Abril/ No. 80



            •  La  AI  puede  ser  utilizada  con  fines  dañinos,     aseguren el desarrollo ético y responsable de la
                como la creación de armas autónomas, la ma-            AI, incluyendo la transparencia, la rendición de
                nipulación de información (por ejemplo, deep-          cuentas y la protección de la privacidad.
                fakes) o el espionaje masivo.
            •  Los sistemas de AI pueden ser hackeados o ma-       2. Diseño ético:
                nipulados para causar daño.                        •  Los sistemas de AI deben diseñarse con princi-
                                                                       pios éticos, como la equidad, la no discrimina-
            2.  Sesgos y discriminación:                               ción y el respeto por los derechos humanos.
            •  Si los datos con los que se entrena la AI están
                sesgados, los sistemas pueden perpetuar o in-      3. Investigación en seguridad:
                cluso amplificar desigualdades sociales, discri-   •  Invertir en investigación para garantizar que los
                minación  racial,  de  género u  otras formas de       sistemas de AI sean seguros, robustos y alinea-
                injusticia.                                            dos con los intereses humanos.


            3. Pérdida de empleos:                                 4. Educación y concienciación:
            •  La  automatización  impulsada  por  la AI  podría   •  Fomentar la educación sobre los riesgos y bene-
                desplazar a trabajadores en ciertos sectores, lo       ficios de la AI para que la sociedad pueda tomar
                que generaría desempleo y desigualdad econó-           decisiones informadas.
                mica si no se gestiona adecuadamente.
                                                                   5. Cooperación internacional:
            4. Falta de control (riesgo existencial):              •  La AI es un desafío global que requiere colabo-
            •  Algunos expertos, como Nick Bostrom y Elon              ración entre países para evitar una carrera ar-
                Musk, han advertido sobre el riesgo de que una         mamentística tecnológica y garantizar que los
                «superinteligencia» (AI que supera ampliamen-          beneficios se compartan equitativamente.
                te la capacidad humana) escape al control hu-
                mano y actúe de manera impredecible o dañina.      Conclusión:
            •  Este escenario, aunque hipotético, plantea pre-           La AI no es intrínsecamente peligrosa, pero
                ocupaciones sobre la alineación de los objetivos   su potencial para causar daño depende de cómo se
                de la AI con los valores humanos.                  desarrolle  y  utilice. Con  un enfoque responsable,
                                                                   ético y regulado, la AI puede ser una herramienta
            5. Dependencia excesiva:                               poderosa para mejorar la vida humana. Sin embar-
            •  La sociedad podría volverse demasiado depen-        go, si se descuidan los riesgos o se utiliza de manera
                diente de la AI, lo que podría llevar a la erosión   irresponsable, podría convertirse en una amenaza
                de  habilidades humanas  y a  la  vulnerabilidad   significativa. Por lo tanto, es fundamental abordar
                ante fallos técnicos.                              estos desafíos de manera proactiva y colaborativa.


            Medidas para mitigar los riesgos:                            ¡Gracias Deep por tu colaboración!
            1. Regulación y supervisión:                                 … … … … The server is busy. Please try again
            •  Es crucial  establecer  marcos regulatorios  que    later.





























        18
   13   14   15   16   17   18   19   20   21   22   23