(CNN) - Inteligencia Artificial que detecta publicaciones de terroristas. Una versión de ti mismo en realidad virtual que parece y se mueve como un humano. Traducciones instantáneas de miles de lenguas.

En el segundo día de la conferencia de desarrolladores F8 en San José, Facebook intercambió las disculpas por el escándalo de datos y las nuevas funciones, como su servicio de citas, para enfriar los proyectos experimentales y... la ética.

MIRA: Facebook hace temblar a Tinder con su nueva aplicación de citas

Los ejecutivos de Facebook el miércoles resumieron los últimos avances de la compañía en inteligencia artificial, conectividad y realidad virtual. La investigación está moldeando la nueva generación de Facebook. Por ejemplo, cree que las personas un día estarán juntas en versiones de realidad virtual de sus cocinas.

En medio del tumultuoso año pasado de escándalos de Facebook, que incluyen interferencia electoral, noticias falsas y el uso de datos personales de Cambridge Analytica, la compañía se está centrando en el lado positivo de la innovación en todos sus productos.

Otro ejemplo es cómo Facebook está usando la Inteligencia Artificial para escanear y eliminar contenido, a menudo antes incluso de que sea visible para los usuarios, según Mike Schroepfer, director de tecnología de Facebook.

En el primer trimestre de este año, los sistemas automatizados de Facebook marcaron 2 millones de publicaciones de "propaganda terrorista" en el sitio, el 99% de las cuales fueron detectadas antes de ser vistas por humanos. Utilizando tecnología como el procesamiento del lenguaje natural, las herramientas pueden señalar intimidación, incitación al odio y amenazas de autolesión, según Schroepfer.

mike schroepfer, jefe de tecnología de Facebook, en la conferencia F8

La moderación del contenido es una preocupación que presiona a la compañía de tecnología. YouTube ha sufrido con contenido ofensivo, incluyendo teorías de la conspiración y videos perturbadores para niños. Facebook alternativamente ha sido acusado de no hacer lo suficiente por eliminar esas publicaciones que incluyen discursos de odio y eliminar demasiado contenido, como el de las mujeres que nombran a sus agresores sexuales.

MIRA:Facebook pone a la venta sus lentes de realidad virtual

Mientras que ambas compañías han dicho que están sumando más personas para que escaneen, el volumen masivo de publicaciones hace casi imposible gestionarlo de forma manual.

Aproximadamente a la mitad de la presentación, la compañía tomó un desvío para hablar en profundidad sobre los problemas de ética con AI.

"Los procesos de verificación solos no son suficiente. Necesitamos asegurarnos de que nuestras acciones y consecuencias están alineadas con un marco ético", dijo la científica de datos de Facebook Isabel Kloumann.

Kloumann dijo que Facebook tiene pautas para detectar y corregir los sesgos que aparecen en sus algoritmos. La compañía continúa ampliando sus sistemas de control de sesgo para "evaluar las implicaciones personales y sociales de cada producto que construimos".

Los usuarios de Instagram (propiedad de Facebook) podrían sorprenderse al saber que sus fotos de fiestas de cumpleaños y perros están siendo usadas para entrenar a estas herramientas de inteligencia artificial. Facebook ha escaneado 3.500 publicaciones públicas para enseñar a su sistema los matices entre una cupcake y un muffin.

Facebook también mostró el trabajo que está haciendo en avatares increíblemente realistas para la realidad virtual que mueven sus labios junto con las palabras que estás diciendo en tiempo real.