Juliette Foster
Presentadora de Televisión y Radio de la BBC
Best-seller del New York Times y experto en IA. El conferencista Nick Bostrom ha aparecido dos veces en la lista de los 100 mejores pensadores globales de Foreign Policy. Las organizaciones reservan a Nick Bostrom para conocer el estado actual y el futuro de la IA, cómo los humanos pueden evitar la autodestrucción y qué sucederá cuando las computadoras se vuelvan más inteligentes que nosotros.
¿Interesado en contratar a Nick Bostrom como conferencista para su próximo evento? Envíenos la siguiente información y nos pondremos en contacto inmediatamente:
El conferencista Nick Bostrom es director y fundador del Future of Humanity Institute en la Universidad de Oxford, además de profesor. El “Instituto del Futuro de la Humanidad” es un centro de investigación único, donde las mentes más destacadas en informática, matemáticas, filosofía, economía e ingeniería intentan descubrir y pronosticar cuáles serán los próximos impactos tecnológicos, las futuras prioridades globales, los riesgos catastróficos venideros y las nuevas oportunidades de transformación.
Bostrom es también director del Centro de Investigación de Inteligencia Artificial Estratégica. En el centro, investiga cómo la próxima revolución de la inteligencia artificial cambiará y afectará a la sociedad y la economía. Su trabajo sobre la superinteligencia y su preocupación por el riesgo que ella representa para la existencia de la humanidad en el futuro, ha influido en el pensamiento de grandes celebridades como Elon Musk o Bill Gates.
Como autor, Nick ha escrito más de 200 publicaciones. Su libro más conocido es Superinteligencia: caminos, peligros, estrategias (editado por Oxford University Press en 2014). Este se convirtió en un éxito de ventas del New York Times y alteró la conversación global sobre el futuro de la IA. Otra de sus publicaciones ampliamente reconocida es, Sesgo antrópico: efectos de la selección de observación en la ciencia y la filosofía.
Además de filósofo, el conferencista Nick Bostrom tiene experiencia en física teórica, neurociencia computacional y sobre los fundamentos de la teoría de la probabilidad. Sus trabajos más destacados y reconocidos tratan sobre el riesgo existencial, el principio antrópico, los riesgos de la superinteligencia, la ética sobre el perfeccionamiento humano y el consecuencialismo.
Bostrom recibió el Premio Eugene R. Gannon (concedido anualmente a la persona más relevante de entre todos los que trabajan en los campos de la filosofía, las matemáticas, las artes, las ciencias naturales y otras humanidades). También ha sido incluido en dos ocasiones entre el Top 100 Global Thinkers de Foreign Policy y una en la lista World Thinkers de la revista Prospect, la persona más joven entre los 15 principales de todos los campos y el filósofo analítico mejor clasificado. Sus escritos han sido traducidos a 24 idiomas y ha habido más de 100 traducciones y reimpresiones de sus obras.
Como speaker, Nick Bostrom participa en prestigiosas conferencias de todo el mundo hablando sobre el presente y el futuro de la Inteligencia Artificial; sobre qué pasará cuando las máquinas sean más inteligentes que los humanos, y sobre el futuro de la humanidad y qué debemos hacer para evitar nuestra auto-destrucción como especie.
Todo el mundo tiene claro que la Inteligencia Artificial es el futuro y que va a transformar nuestra forma de trabajar y de enfocar los problemas. Aún con todos sus beneficios hay quién tiene claro que la IA también supone un riesgo existencial para nuestra especie. Esto sucede porque a la hora de enfrentar los problemas que le planteemos, la IA puede no tener en consideración aspectos que para nosotros son relevantes. Personas como el profesor Nick Bostrom de la Universidad de Oxford que recomiendo que abordar la IA con precaución y tomando medidas activas para mitigar el riesgo. En esta charla, el afamado escritor de "Superinteligencia: caminos, peligros, estrategias" nos hablará de cómo estamos utilizando la IA hoy en día y cuál es su potencial en un futuro, para que podamos entender estos riegos que va a comportar y de qué forma los podemos controlar.
En esta conferencia, el speaker Nick Bostrom, uno de los mayores expertos en Inteligencia Artificial y director y fundador del Future of Humanity Institute en la Universidad de Oxford, nos hablará sobre las posibilidades de llegar a la singularidad tecnológica. Este punto se alcanzará cuando la aceleración de las tecnologías se incremente hasta llegar a un punto en que las capacidades de los ordenadores y las máquinas escape a las capacidades de los humanos para comprenderlas. En esta charla veremos supuestos sobre qué puede suceder en ese preciso instante y cuáles son los factores determinantes que harán qué una vez llegados a ese punto, las cosas vaya bien o mal para la humanidad en general.
¿Tienes ganas de conocer qué nos depara el futuro y cuáles van a ser nuestras opciones? Nick Bostrom no dejará a nadie indiferente.
En esta charla, el filósofo y experto en tecnología Nick Bostrom detallará cuáles son las 4 formas mediante las que podremos evitar nuestra autodestrucción en el futuro próximo. Con sus deliberaciones sobre el futuro de la tecnología y como esta afectará a la humanidad, Nick ha inspirado el pensamiento de grandes celebridades como Elon Musk o Bill Gates. Estas 4 formas de evitar nuestra autodestrucción se basan en las investigaciones que Bostrom lleva a cabo en el "Future of Humanity Institute" centro que fundó y dirige en la Universidad de Oxford. Descubriremos cuáles son los orígenes de estos 4 riesgos catastróficos venideros y en que fundamentan sus soluciones para la salvación.
Información Básica Sobre Protección de Datos | |
---|---|
Responsable del tratamiento | AURUM SPEAKERS BUREAU S.L. |
Dirección del responsable | Calle Doctor Ullés 2, 3º 1ª, CP 08224, Terrassa (Barcelona), España. |
Finalidad | Sus datos serán usados para poder atender sus solicitudes y prestarle nuestros servicios. |
Publicidad | Solo le enviaremos publicidad con su autorización previa, que podrá facilitarnos mediante la casilla correspondiente establecida al efecto. |
Legitimación | Únicamente trataremos sus datos con su consentimiento previo, que podrá facilitarnos mediante la casilla correspondiente establecida al efecto. |
Destinatarios | Con carácter general, sólo el personal de nuestra entidad que esté debidamente autorizado podrá tener conocimiento de la información que le pedimos. |
Derechos | Tiene derecho a saber qué información tenemos sobre usted, corregirla y eliminarla, tal y como se explica en la información adicional disponible en nuestra página web. |
Información adicional | Más información en el apartado "Política de Privacidad" de nuestra página web. |