Prompt Engineering

Usare al meglio l’Intelligenza Artificiale generativa

Descrizione

L’Intelligenza Artificiale (IA) generativa può essere utilissima – può svolgere diverse attività in modo efficace ed efficiente, assistendoci nel lavoro e in altri ambiti – ma bisogna saperla usare bene. Formulare le richieste in modo improprio porta a risposte poco utili.

Il Prompt Engineering (progettazione dei comandi) è la tecnica per dialogare con i Chatbot di Intelligenza Artificiale generativa (come ChatGPT, Bard e strumenti analoghi) per ottenere i risultati che ci interessano.

Il corso offre una panoramica sulle potenzialità offerte dagli strumenti di Intelligenza Artificiale generativa, e presenta i Pattern utili per formulare le richieste in modo da ottenere risposte adeguate.

Per ogni Pattern illustrato vengono svolte esercitazioni basate su casi concreti, permettendo ai partecipanti di ottenere feedback ai propri prompt e di imparare con esperienze reali.

Prerequisiti

Il corso non ha prerequisiti, tranne la disponibilità di un browser connesso in rete.

In particolare, non sono richieste competenze tecniche relative allo sviluppo software.

Argomenti trattati

L’Intelligenza Artificiale generativa e i suoi possibili utilizzi

I Large Language Model (LLM) – modelli linguistici ampi – e i Chatbot che servono per dialogare con LLM

  • Elaborazione di progetti
  • Creazione di opere di vario tipo
  • Valutazione della qualità di prodotti
  • Operazioni su testi e immagini

Pattern di base

  • Persona – chiedere di assumere un ruolo
  • Audience Persona – chiedere di rispondere rivolgendosi a interlocutori di un certo tipo
  • Question Refinement – chiedere di aiutare a formulare meglio le domande
  • Cognitive Verifier – chiedere di trovare domande correlate
  • Alternative Approaches – chiedere di suggerire approcci alternativi
  • Flipped Interaction – chiedere al LLM di invertire i ruoli formulando le domande all’utente
  • Few Shot Example – chiedere di fornire risposte basandosi su esempi forniti dall’utente
  • Reflection – chiedere di fornire il ragionamento su cui il LLM basa le risposte
  • Game Play – chiedere a LLM di creare un gioco per ottenere un obiettivo
  • Template – chiedere di formattare l’output in un modo specifico
  • Context Manager – chiedere di considerare o non considerare aspetti specifici di contesto
  • Recipe – chiedere di definire step intermedi per ottenere un risultato

Pattern ulteriori per usi specifici

  • Meta Language Creation – fornire a LLM il significato di espressioni che useremo nel dialogo
  • ReAct – indurre LLM a usare altri strumenti per ottenere un risultato
  • Fact Check List – chiedere di specificare un elenco dei “fatti” su cui LLM basa le sue risposte
  • Output Automater – chiedere di generare uno script automatizzato
  • Visualization Generator – chiedere di generare immagini
  • Requirements Simulator – chiedere di valutare la completezza di un insieme di requisiti
  • Specification Disambiguation – chiedere di evidenziare ambiguità nelle specifiche di requisiti
  • Change Request Simulation – chiedere di valutare l’impatto di una richiesta di cambiamento

Accesso ad altri strumenti a partire dal LLM

Data

01 - 02 Dic 2025

Costo

€800,00

Luogo

Evento online

Acquista Biglietti

Quota di partecipazione - 976€ IVA inclusa
Available Posti: 100
The "Quota di partecipazione - 976€ IVA inclusa" ticket is sold out. You can try another ticket or another date.
Quota di partecipazione - 800€ Senza IVA (solo per aziende esenti)
Available Posti: 100
The "Quota di partecipazione - 800€ Senza IVA (solo per aziende esenti)" ticket is sold out. You can try another ticket or another date.
Share on:
Facebook
Twitter
LinkedIn
Email
WhatsApp
Pocket
Reddit