IA llegó para quedarse: el problema ético es que los algoritmos nos están robando la capacidad de ser autónomos, experto MEMORANDUM 1.-
El término inteligencia artificial parece haber llegado para quedarse, la IA es una hoja de cálculo multidimensional, una herramienta de análisis y un grupo de métodos de estadística computacional, señala el profesor de Filosofía y Ética informática de la Universidad de Oregón, Ramón Alvarado. Al impartir la conferencia “Ética para un futuro con inteligencia artificial”, como parte del ciclo Miedos, mitos y verdades de la computación, coordinado por Carlos Coello Coello, miembro de El Colegio Nacional, explica que el término inteligencia artificial ha significado muchas cosas en distintas épocas de la investigación. Recordó que el primer boom de esta tecnología surgió después de los años cuarenta del siglo pasado, cuando salieron las máquinas mecánicas; posteriormente, en la década de los sesenta, se comenzó a utilizar el término, cuando se tuvo la capacidad tecnológica para resolver problemas mecánicos, que solamente el humano había logrado resolver, como jugar ajedrez. “Hasta llegar a noviembre de 2022, cuando Open IA saca Chat GPT y todo el mundo sabe de la inteligencia artificial y se preocupa de ella, asó, se colocó en la psique cultural”. “Lo que hizo Open IA con Chat GPT fueron dos cosas, primero, nos dio una tecnología generativa, es decir, extrae patrones, trayectorias y aprende; y segundo, puede darnos resultados: crear, generar resultados que no necesariamente están en los datos que nos dio”, enfatiza el especialista. Explica que lo que más afectó la relación de las personas con esta tecnología, es que se trató de una nueva interfase con la que cualquier persona con lenguaje natural podía hablar y pedir un texto. “La inteligencia artificial es una hoja de cálculo multidimensional, una herramienta de análisis y un grupo de métodos de estadística computacional; y la IA extractiva analiza, categoriza y agrupa datos de nuestro comportamiento, nuestra salud o movimientos, para encontrar probabilidades con las que predice cosas”. En cualquier caso, “el término ‘inteligencia artificial’ parece haber llegado para quedarse, y puede resultar más fácil limpiar la frase que prescindir de ella. Con el tiempo, se volverá lo suficientemente idiomática como para que ya no sea el blanco de la retórica barata”, enfatiza el profesor. Señala que el concepto es más complejo ahora, porque las máquinas que se han inventado en los últimos 20 años, son muy poderosas, resuelven problemas difíciles y procesan información compleja. En relación a la inteligencia artificial generativa, Ramón Alvarado explica que es una tecnología basada en métodos extractivos, es decir, relacionados con las redes neuronales, para generar patrones similares, lo que se conoce como GPT. “La máquina no sabe qué es una imagen, no comprende las acciones que le solicita, sólo trabaja a partir de los valores de las matemáticas. Algunas de las limitaciones que tiene la IA es que realiza alucinaciones versus desviaciones estadísticas, porque toma los patrones que tiene más próximos al resultado, aunque no tenga lógica”. “Son máquinas de estadísticas, aprenden de una manera específica, pueden hacer muchas cosas, pero tienen sus limitaciones. Por ejemplo, un Tesla chocó contra un tractor y lo volteó. Chocó, porque no tuvo suficientes datos del tractor para identificarlo como un peligro. No tenía millones de fotos para identificarlo como lo hace con otros objetos. Tendemos a sobreestimar las disrupciones inmediatas de la tecnología y a subestimar sus efectos a largo plazo”, asegura el investigador. Recordó que los filósofos se han preocupado por la tecnología desde toda la historia de la humanidad, “hemos tenido problemas éticos con temas como la escritura que tiene más de 2 mil años, porque pensábamos que iba a destruir la memoria, como la prensa hace 300 años, el internet hace 30 y Google hace 20. Pero lo que realmente debería preocuparnos dentro de la ética de la IA es la opacidad, debido a que muchos de estos algoritmos no los comprendemos, y el sesgo algorítmico, es decir, la adquisición de los prejuicios de sus creadores”. La monocultura algorítmica va en muchas direcciones, por ejemplo, “tenemos el compromiso de la equidad y la diversidad, tanto que nos metemos en problemas. Porque si pedimos una fotografía de un ingeniero, casi siempre será blanco y sonriente. Esta noción de la monocultura la estamos propagando con nuestros mismos valores éticos. Ese es un problema ético profundo, más que el sesgo y la discriminación”. En palabras del especialista, para el futuro, se tienen que considerar los errores en datos en temas financieros, de salud, de consumidor y de guerra. Estos temas sufrirán alucinaciones de la misma manera que sucede con las imágenes, pero que no se ven a simple vista, es un problema ético profundo. En relación a la ética de gobernancia, “el problema ético es que los algoritmos nos están robando la capacidad de ser autónomos, incluso, están robando nuestro tiempo, a través de las distracciones que nos quitan la atención”. Señala que, todavía no hay una ética para el siglo XXI. Pero es importante preguntarnos ¿dónde y cuándo queremos a la inteligencia artificial en nuestro tiempo y en nuestras vidas? “Debemos entender a la lA como una tecnología epistémica, y debemos construir una ética adecuada con y no contra la Inteligencia Artificial, más allá del error y el daño”.
|
IA llegó para quedarse: el problema ético es que los algoritmos nos están robando la capacidad de ser autónomos, experto MEMORANDUM 2.-
El término inteligencia artificial parece haber llegado para quedarse, la IA es una hoja de cálculo multidimensional, una herramienta de análisis y un grupo de métodos de estadística computacional, señala el profesor de Filosofía y Ética informática de la Universidad de Oregón, Ramón Alvarado. Al impartir la conferencia “Ética para un futuro con inteligencia artificial”, como parte del ciclo Miedos, mitos y verdades de la computación, coordinado por Carlos Coello Coello, miembro de El Colegio Nacional, explica que el término inteligencia artificial ha significado muchas cosas en distintas épocas de la investigación. Recordó que el primer boom de esta tecnología surgió después de los años cuarenta del siglo pasado, cuando salieron las máquinas mecánicas; posteriormente, en la década de los sesenta, se comenzó a utilizar el término, cuando se tuvo la capacidad tecnológica para resolver problemas mecánicos, que solamente el humano había logrado resolver, como jugar ajedrez. “Hasta llegar a noviembre de 2022, cuando Open IA saca Chat GPT y todo el mundo sabe de la inteligencia artificial y se preocupa de ella, asó, se colocó en la psique cultural”. “Lo que hizo Open IA con Chat GPT fueron dos cosas, primero, nos dio una tecnología generativa, es decir, extrae patrones, trayectorias y aprende; y segundo, puede darnos resultados: crear, generar resultados que no necesariamente están en los datos que nos dio”, enfatiza el especialista. Explica que lo que más afectó la relación de las personas con esta tecnología, es que se trató de una nueva interfase con la que cualquier persona con lenguaje natural podía hablar y pedir un texto. “La inteligencia artificial es una hoja de cálculo multidimensional, una herramienta de análisis y un grupo de métodos de estadística computacional; y la IA extractiva analiza, categoriza y agrupa datos de nuestro comportamiento, nuestra salud o movimientos, para encontrar probabilidades con las que predice cosas”. En cualquier caso, “el término ‘inteligencia artificial’ parece haber llegado para quedarse, y puede resultar más fácil limpiar la frase que prescindir de ella. Con el tiempo, se volverá lo suficientemente idiomática como para que ya no sea el blanco de la retórica barata”, enfatiza el profesor. Señala que el concepto es más complejo ahora, porque las máquinas que se han inventado en los últimos 20 años, son muy poderosas, resuelven problemas difíciles y procesan información compleja. En relación a la inteligencia artificial generativa, Ramón Alvarado explica que es una tecnología basada en métodos extractivos, es decir, relacionados con las redes neuronales, para generar patrones similares, lo que se conoce como GPT. “La máquina no sabe qué es una imagen, no comprende las acciones que le solicita, sólo trabaja a partir de los valores de las matemáticas. Algunas de las limitaciones que tiene la IA es que realiza alucinaciones versus desviaciones estadísticas, porque toma los patrones que tiene más próximos al resultado, aunque no tenga lógica”. “Son máquinas de estadísticas, aprenden de una manera específica, pueden hacer muchas cosas, pero tienen sus limitaciones. Por ejemplo, un Tesla chocó contra un tractor y lo volteó. Chocó, porque no tuvo suficientes datos del tractor para identificarlo como un peligro. No tenía millones de fotos para identificarlo como lo hace con otros objetos. Tendemos a sobreestimar las disrupciones inmediatas de la tecnología y a subestimar sus efectos a largo plazo”, asegura el investigador. Recordó que los filósofos se han preocupado por la tecnología desde toda la historia de la humanidad, “hemos tenido problemas éticos con temas como la escritura que tiene más de 2 mil años, porque pensábamos que iba a destruir la memoria, como la prensa hace 300 años, el internet hace 30 y Google hace 20. Pero lo que realmente debería preocuparnos dentro de la ética de la IA es la opacidad, debido a que muchos de estos algoritmos no los comprendemos, y el sesgo algorítmico, es decir, la adquisición de los prejuicios de sus creadores”. La monocultura algorítmica va en muchas direcciones, por ejemplo, “tenemos el compromiso de la equidad y la diversidad, tanto que nos metemos en problemas. Porque si pedimos una fotografía de un ingeniero, casi siempre será blanco y sonriente. Esta noción de la monocultura la estamos propagando con nuestros mismos valores éticos. Ese es un problema ético profundo, más que el sesgo y la discriminación”. En palabras del especialista, para el futuro, se tienen que considerar los errores en datos en temas financieros, de salud, de consumidor y de guerra. Estos temas sufrirán alucinaciones de la misma manera que sucede con las imágenes, pero que no se ven a simple vista, es un problema ético profundo. En relación a la ética de gobernancia, “el problema ético es que los algoritmos nos están robando la capacidad de ser autónomos, incluso, están robando nuestro tiempo, a través de las distracciones que nos quitan la atención”. Señala que, todavía no hay una ética para el siglo XXI. Pero es importante preguntarnos ¿dónde y cuándo queremos a la inteligencia artificial en nuestro tiempo y en nuestras vidas? “Debemos entender a la lA como una tecnología epistémica, y debemos construir una ética adecuada con y no contra la Inteligencia Artificial, más allá del error y el daño”.
|
Hallan cuerpo de un hombre sin vida y en avanzado estado de descomposición, en el río Coatzacoalcos; Taxista se impacta contra auto estacionado, en Tuxpan MEMORANDUM 3.-
El cuerpo de un hombre en avanzado estado de descomposición fue hallado por pescadores la mañana de este lunes, a la altura de la colonia Las Escolleras de la villa de Allende. Trascendió que el cuerpo flotaba sobre el río Coatzacoalcos, por lo que los hombres del mar dieron parte a las autoridades. Más tarde la zona fue asegurada por elementos de la Policía Estatal, a la espera de que el personal de Servicios Periciales, realizara el levantamiento para su traslado al Servicio Médico Forense (Semefo). De acuerdo con los reportes, el cuerpo habría sido arrastrado por la corriente desde río arriba, y hasta el momento permanece en calidad de desconocido…UN TAXISTA que presuntamente conducía a exceso de velocidad se impactó contra un vehículo estacionado, alrededor de las 01:30 horas de este lunes, en el bulevar Jesús Reyes Heroles, entre las calles Ignacio Allende y Corregidora, de la colonia Centro, en Tuxpan. De acuerdo con los reportes, José “N”, de 38 años, vecino del fraccionamiento Cabo Rojo, de ocupación taxista, conducía la unidad marcada con el número 319, matrícula de Veracruz, cuando perdió el control y se impactó contra un auto estacionado. El vehículo afectado es un coche marca MG tipo J7 color rojo, propiedad de Daniel “N”, de 49 años, domiciliado en el municipio de Chimalhuacán, Estado de México. El peritaje realizado por elementos de Tránsito Municipal da a conocer que el taxista se desplazaba a exceso de velocidad, lo que provocó que perdiera el control y se proyectara contra el vehículo estacionado. En los hechos no se reportaron personas lesionadas. Los vehículos fueron remolcados al corralón para el deslinde de responsabilidades.
|
|