Prompt Engineering

Usare al meglio l’Intelligenza Artificiale generativa

Descrizione

L’Intelligenza Artificiale (IA) generativa può essere utilissima – può svolgere diverse attività in modo efficace ed efficiente, assistendoci nel lavoro e in altri ambiti – ma bisogna saperla usare bene. Formulare le richieste in modo improprio porta a risposte poco utili.

Il Prompt Engineering (progettazione dei comandi) è la tecnica per dialogare con i Chatbot di Intelligenza Artificiale generativa (come ChatGPT, Bard e strumenti analoghi) per ottenere i risultati che ci interessano.

Il corso offre una panoramica sulle potenzialità offerte dagli strumenti di Intelligenza Artificiale generativa, e presenta i Pattern utili per formulare le richieste in modo da ottenere risposte adeguate.

Per ogni Pattern illustrato vengono svolte esercitazioni basate su casi concreti, permettendo ai partecipanti di ottenere feedback ai propri prompt e di imparare con esperienze reali.

Prerequisiti

Il corso non ha prerequisiti, tranne la disponibilità di un browser connesso in rete.

In particolare, non sono richieste competenze tecniche relative allo sviluppo software.

Argomenti trattati

L’Intelligenza Artificiale generativa e i suoi possibili utilizzi

I Large Language Model (LLM) – modelli linguistici ampi – e i Chatbot che servono per dialogare con LLM

  • Elaborazione di progetti
  • Creazione di opere di vario tipo
  • Valutazione della qualità di prodotti
  • Operazioni su testi e immagini

Pattern di base

Persona – chiedere di assumere un ruolo
Audience Persona – chiedere di rispondere rivolgendosi a interlocutori di un certo tipo
Question Refinement – chiedere di aiutare a formulare meglio le domande
Cognitive Verifier – chiedere di trovare domande correlate
Alternative Approaches – chiedere di suggerire approcci alternativi
Flipped Interaction – chiedere al LLM di invertire i ruoli formulando le domande all’utente
Few Shot Example – chiedere di fornire risposte basandosi su esempi forniti dall’utente
Reflection – chiedere di fornire il ragionamento su cui il LLM basa le risposte
Game Play – chiedere a LLM di creare un gioco per ottenere un obiettivo
Template – chiedere di formattare l’output in un modo specifico
Context Manager – chiedere di considerare o non considerare aspetti specifici di contesto
Recipe – chiedere di definire step intermedi per ottenere un risultato

Pattern ulteriori per usi specifici

Meta Language Creation – fornire a LLM il significato di espressioni che useremo nel dialogo
ReAct – indurre LLM a usare altri strumenti per ottenere un risultato
Fact Check List – chiedere di specificare un elenco dei “fatti” su cui LLM basa le sue risposte
Output Automater – chiedere di generare uno script automatizzato
Visualization Generator – chiedere di generare immagini
Requirements Simulator – chiedere di valutare la completezza di un insieme di requisiti
Specification Disambiguation – chiedere di evidenziare ambiguità nelle specifiche di requisiti
Change Request Simulation – chiedere di valutare l’impatto di una richiesta di cambiamento

Accesso ad altri strumenti a partire dal LLM

Data

10 - 11 Apr 2024
Expired!

Costo

€700,00

Luogo

Evento online
Share on:
Facebook
Twitter
LinkedIn
Email
WhatsApp
Pocket
Reddit