Rischi e Opportunità dell’Intelligenza Artificiale nel Settore Immobiliare e delle Costruzioni

Gestire il Rischio Legale nell’Implementazione dell’IA: Esaminare le Promesse e le Insidie dell’Intelligenza Artificiale nel Settore Immobiliare e dell’Edilizia

Oggi è difficile accendere la televisione senza essere sommersi dall’Intelligenza Artificiale (IA), che si presenta sotto forma di pubblicità durante grandi eventi, come segmento principale nelle notizie o attraverso annunci nei podcast. L’IA è ovunque, eppure i suoi utilizzi pratici nella vita quotidiana e nel mondo dello sviluppo immobiliare e dell’edilizia sono ancora in evoluzione.

Utilizzi Potenziali dell’IA nello Sviluppo Immobiliare e nell’Edilizia

Le applicazioni potenziali dell’IA nel settore immobiliare e dell’edilizia sono quasi infinite. Ad esempio, l’IA può assistere o controllare i progetti di design, la gestione dei progetti, le revisioni dei programmi, le ispezioni o persino riassumere le note di riunioni. Utilizzare l’IA per aiutare nel design può alleggerire gli architetti o gli ingegneri da compiti monotoni. Può essere utilizzata per creare design iniziali e bozze di disegni, e persino per verificare i costi dei materiali, le fonti dei materiali, l’impatto di tasse o dazi, la realizzabilità di un design o l’efficienza energetica di un dato progetto.

L’IA può anche essere utile nel semplificare le controversie legali. Sebbene l’IA non possa sostituire un avvocato in aula o prendere decisioni legali, altre applicazioni sono già evidenti. Ad esempio, l’IA potrebbe analizzare e riassumere la vasta documentazione generata quotidianamente in un progetto edilizio, che sembra aumentare costantemente. Utilizzando l’IA in questo modo, le controversie legali potrebbero diventare più economiche e più rapide da risolvere.

Rischi Associati all’IA

Tuttavia, questi benefici non sono privi di rischi. Attualmente, i rischi più significativi associati all’implementazione dell’IA nel settore immobiliare e dell’edilizia sono quelli generalmente legati all’uso dell’IA in qualsiasi attività. Questi rischi includono le “allucinazioni” (ovvero quando l’IA commette errori), le carenze di formazione (dato che la maggior parte dei modelli di IA deve essere addestrata) e il potenziale errore o abuso da parte dell’utente. Indipendentemente da come si verifica un’errata informazione, il risultato finale è lo stesso: un errore che necessita di correzione. Ma chi dovrebbe assumersi la responsabilità per un errore commesso dall’IA? L’utente? Il fornitore di IA? Qualcun altro?

I problemi di assegnazione della colpa possono essere particolarmente problematici poiché software come l’IA spesso viene fornito con un “accordo di clic”. Ciò significa che l’acquirente o l’utente del software di IA deve prima “cliccare” su un insieme di termini e condizioni, accettando tali termini (cliccando su un pulsante “Accetto”) prima di poter utilizzare il software. Questi accordi di clic sono generalmente applicabili, il che significa che i termini e le condizioni in essi contenuti sono altrettanto vincolanti. Un termine comune negli accordi di clic è la limitazione della responsabilità. Spesso, queste limitazioni stabiliscono un importo molto basso di danni che possono essere recuperati dal fornitore di IA, come una cifra preimpostata o il costo del software. Cosa succede se l’IA commette un errore e causa un danno significativo, ma l’accordo limita la responsabilità del fornitore a, ad esempio, $10.000?

Mitigare il Rischio attraverso Chiare Disposizioni Contrattuali

È essenziale che i contratti di sviluppo immobiliare e edilizio tengano conto dell’emergere dell’IA. Alcuni problemi chiave da considerare includono chi dovrà sostenere il costo per un’errata informazione dell’IA o quale ruolo, se presente, potrebbe avere l’IA nell’assistere nella risoluzione delle controversie. Se un proprietario di progetto richiede che l’IA venga utilizzata per assistere nel design, allora è ragionevole che il proprietario sia responsabile per i costi sostenuti per rimediare all’errore dell’IA.

In alternativa, il contratto potrebbe prevedere che se un partecipante al progetto decide di utilizzare l’IA, sarà esclusivamente responsabile per i costi sostenuti per correggere un errore dell’IA. Inoltre, per la risoluzione delle controversie, le parti accetteranno di utilizzare una certa piattaforma di IA per assistere nella revisione di documenti voluminosi del progetto per mantenere i costi contenuti? Se sì, tale accordo dovrebbe essere formalizzato nel contratto delle parti. Quando si redigono tali disposizioni, è importante ricordare che la chiarezza è fondamentale.

Identificare questi problemi in anticipo e determinare come saranno affrontati permetterà a tutte le parti di affrontare il progetto con “occhi aperti”. Cioè, ciascuna parte conosce l’allocazione del rischio per un dato scenario, consentendo loro di pianificare meglio o mitigare quel rischio.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...