黑料吃瓜资源

Opptak av konferansen finnes nederst i saken.

I konferansens f酶rste del 氓pnet vi Pandoras eske med prosjektets store, konseptuelle sp酶rsm氓l. Disse inkluderer forskjellen mellom beregningsmessig forklaringer og juridisk begrunnelse, de underliggende form氓lene med juridiske krav til 氓 avgi begrunnelsen, og hva som kan utgj酶re en tilstrekkelig god eller tilstrekkelig begrunnelse for en juridisk beslutning. 

Konferansens andre del unders酶kte de nye kravene i norsk lovgivning til 氓 forklare bruken av kunstig intelligens i forvaltningsretten, de case-baserte systemene som per n氓 er tilgjengelige, og bruken av KI i norsk masseforvaltning. 

I den tredje delen av konferansen gikk vi dypere inn i potensialet for 氓 bruke store spr氓kmodeller som verkt酶y i juridiske beslutningsprosesser. Dette inkluderte diskusjoner om metodiske utfordringer knyttet til 氓 identifisere 芦like禄 saker som m氓 behandles likt, anvendeligheten av RAG-systemer i juridiske sammenhenger, samt andre hybride l酶sninger som kan bidra til 氓 effektivisere samhandlingen mellom staten og innbyggerne.

Fremragende foredragsholdere bidro til en livlig debatt som ga et solid grunnlag for videre utvikling av prosjektet. Hele konferansen er tilgjengelig som opptak under. Du kan navigere i foredragene ved hjelp av kapittelopplistingen under. 

In the first part of the conference, we opened Pandora鈥檚 box of the project鈥檚 major conceptual questions. These include the distinction between computational explanations and legal justification, the underlying purposes of legal requirements to provide reasons, and what may constitute a sufficiently good or adequate reasoning for a legal decision.

The second part of the conference examined the new requirements in Norwegian legislation for explaining the use of artificial intelligence in public administrative law, the case鈥慴ased reasoning systems currently available, and the state of AI use in Norwegian mass administration.

In the third part of the conference, we explored in greater depth the potential for using large language models as tools in legal decision鈥憁aking processes. This included discussions of methodological challenges in identifying 鈥渟imilar鈥 cases that must be treated alike, the applicability of RAG systems in legal contexts, and other hybrid solutions that may help streamline interaction between the state and its citizens.

Distinguished speakers helped foster a lively debate that provided a strong foundation for further project development. The full conference is available as a recording, and you can navigate the video using the chapter bookmarks shown below.

Principal Investigator Henrik Palmer Olsen.
Foto LEXplain

Opptak av konferansen

Opptaket er delt inn i f酶lgende kapitler:

Kapittel 1: LEXplain: Explainability for legal decisions in the era of AI. Professor and Project Manager Henrik Palmer Olsen, K酶benhavns universitet og Universitetet i Bergen

Kapittel 2: To Explain or to Justify? Computer science and public law accountability approches. Dr. Jennifer Raso, McGill University, Faculty of Law

Kapittel 3: What is a good (enough) reason for a legal decision? Professor Mathilde Cohen, Professor of Law at University of Connecticut/Centre National de la Recherche Scientifique (Paris)

Kapittel 4: Questions and discussion. Mathilde Cohen, Jennifer Raso, Henrik Palmer Olsen and Ragna Aarli (Chair)

Kapittel 5: Automatic for the people. Prof. Karl Haral S酶vig, Universitetet i Bergen

Kapittel 6: Case Based Reasoning systems for decision support in public administration. Postdoc Paul Cosma, Copenhagen University

Kapittel 7: How far have we come with AI as decision support for caseworkers in public mass administration that requires the use of discretion? Carine R酶kenes, Bj酶rn Eriksen, Kaja Vollan Amundsen and Robindra Prabhu in dialogue with Ragna Aarli

Kapittel 8: Computational approaches to assessment of case similarity, Docent Johan Lindholm, Ume氓 Universitet

Kapittel 9: Automated legal information retrieval and analysis: state of the art and evaluation metrics, Professor Henrik Palmer Olsen

Kapittel 10: XHAILe: Explainable Hybrid-AIfor computational Law & accurate Legal chatbots. Professor Thomas Hildebrandt, K酶benhavns Universitet

Kapittel 11: Questions and discussion. Synne S忙ther M忙hle (chair), Thomas Hildebrandt, Henrik Palmer Olsen og Johan Lindholm