SKU/Artículo: AMZ-B0GJMKV125

Machine Learning Security: Protecting Models from Adversarial Attacks and Data Poisoning

Disponibilidad:
En stock
Peso con empaque:
0.47 kg
Devolución:
Condición
Nuevo
Producto de:
Amazon

Sobre este producto
  • Adversarial Evasion: Understand how attackers generate "perturbations"—invisible noise that fools classifiers—and how to use Adversarial Training to immune your models against them.
  • Data Poisoning: Learn how malicious actors inject bad data into your training set to create "backdoors" that trigger only when they want them to.
  • Privacy Attacks: Stop Model Inversion and Membership Inference attacks that allow hackers to reverse-engineer your model to steal sensitive user data.
  • Defense Strategies: Implement defensive distillation, feature squeezing, and gradient masking to make your models harder to crack.
  • Secure the Pipeline: Protect the entire ML lifecycle, from the Jupyter notebook to the production API endpoint.
U$S 52,48
60% OFF
U$S 20,99

IMPORTÁ FACIL

Comprando este producto podrás descontar el IVA con tu número de RUT

NO CONSUME FRANQUICIA

Si tu carrito tiene solo libros o CD’s, no consume franquicia y podés comprar hasta U$S 1000 al año.

U$S 52,48
60% OFF
U$S 20,99

¡Comprá en hasta 12 cuotas sin interés con todas tus tarjetas!

¡Solo por hoy! Envío gratis usando el cupón: ENVIO-UY

Llega en 5 a 11 días hábiles
con envío
Tienes garantía de entrega
Este producto viaja de USA a tus manos en