Податки та законодавство, Суспільство Автор: RomanK Друкувати

Адвоката судитимуть через використання ChatGPT

  • Джерело: finance.ua.  → Ключові теги: ChatGPT

    Адвокат із Нью-Йорка Стівен Шварц використовував ChatGPT для підготовки документів у справі. В результаті він надав суду посилання на вигадані нейромережею подібні випадки судових процесів. Як повідомляє The New York Times, тепер суд розглядає «потенційні заходи покарання» для самого адвоката.

    1245_5d03ac6782765.jpg (35.65 Kb)

    В чому суть справи?
    Судовий процес був досить простим: Роберто Мата подав до суду на авіакомпанію Avianca, заявивши, що він отримав травму, коли металевий візок для сервірування вдарив його коліно під час рейсу до міжнародного аеропорту Кеннеді в Нью-Йорку.
    Представники авіакомпанії попросили федерального суддю відхилити справу, проте адвокати пана Мата категорично заперечували проти відхилення і надали 10-сторінковий запис, у якому цитувалися понад півдюжини подібних судових рішень.
    Проте ніхто: ні юристи авіакомпанії, ні навіть сам суддя — не зміг знайти рішення чи цитати, наведені в узагальнені в записці. І все через те, що їх повністю вигадав ChatGPT, яким користувався адвокат Стівен Шварц.
    Шварц, який займався адвокатською практикою в Нью-Йорку протягом 30 років, сказав судді, що він не мав наміру обдурити суд або авіакомпанію. Він заявив, що ніколи не використовував ChatGPT, і «тому не знав про можливість того, що його відповіді можуть бути неправдивими».
    Суддя врешті решт зазначив, що йому було представлено юридичне подання, повне «фальшивих судових рішень, з фальшивими цитатами та фальшивими внутрішніми цитатами». Для обговорення можливих санкцій проти адвоката було призначене додаткове слухання на 8 червня.
    Чому це цікаво?
    OpenAI попереджає, що ChatGPT може надавати неточну інформацію — нейромережа все вигадувала фальшиві газетні статті, невірні твердження про те, що професор права був залучений у скандал із сексуальними домаганнями, а мер Австралії був замішаний у скандалі з хабарництвом.
    Крім того, як окремі люди, так і великі корпорації стурбовані тим, як використовуються дані. Наприклад Samsung заборонила своїм співробітникам використовувати генеративні інструменти штучного інтелекту через побоювання щодо того, як дані зберігаються на зовнішніх серверах, і через ризик того, що секрети компанії в решті решт можуть бути розкриті іншим користувачам.
    Проте, як бачимо, чимало людей, далеких від розуміння всіх ризиків використання нейромереж в роботі, продовжують покладатися на штучний інтелект. І в окремих випадках це може більше нашкодити, ніж допомогти.



    ЧИТАЙТЕ ТАКОЖ:

    Рекомендуємо

    Початкові курси програмування від FoxmindEd — швидке засвоєння теорії на практиці Початкові курси програмування від FoxmindEd — швидке засвоєння теорії на практиці
    IT-сфера здається вже давно перенасиченою фахівцями, що відлякує потенційних кодерів. Проте, якщо почати старт із правильними наставниками, ви гаранто...
    Слоти з 1024 способами виграшу: що це таке та як працює Слоти з 1024 способами виграшу: що це таке та як працює
    У класичних слотах ми звикли до ліній — їх може бути 5, 10, 20 чи навіть 40. Кожна з них має свою траєкторію та визначає, як формуються виграшні...
    Набори викруток Polax - універсальне рішення для будь-яких завдань Набори викруток Polax - універсальне рішення для будь-яких завдань
    Викрутка – базовий інструмент у домашньому господарстві, ремонтних роботах, будівництві, автомобільній сфері та електромонтажі. Однак набір викруток н...
    Підписатись не коментуючи
    E-mail:

    День в фотографіях Всі фотографії

    Актуальні теми Всі актуальні теми