16.6 Kontrol Kerja: Permission, Data, dan Audit
Semakin luas AI digunakan, semakin penting untuk memiliki kontrol kerja yang jelas agar penggunaannya tetap aman dan dapat dipertanggungjawabkan. Rina, yang kini terbiasa memakai AI untuk memahami kode, menulis draft ADR, dan merangkum dokumen lintas fungsi, mulai menyadari sesuatu: tidak semua informasi boleh diberikan ke AI dengan cara yang sama.
Suatu sore, ia hendak meminta AI membantu menganalisis sebuah file konfigurasi yang berisi credential database. Untunglah, sebelum ia sempat menempelkan isinya ke prompt, sistem di perusahaannya sudah memiliki mekanisme yang mencegahnya. File itu berada di repositori dengan label secret scope, dan AI assistant yang terintegrasi di editor secara otomatis menolak membaca kontennya. Rina tidak perlu berpikir dua kali — sistem yang menjaganya.
Inilah inti dari kontrol kerja AI: permission, data, dan audit. Ketiganya bekerja bersama agar organisasi bisa memanfaatkan AI secara agresif tanpa kehilangan kendali.
Diagram berikut memperlihatkan bagaimana ketiga lapisan kontrol bekerja secara berurutan saat AI mengakses suatu file.
Permission scope menentukan apa yang boleh diakses oleh AI. Tidak semua repositori, tidak semua file, dan tidak semua branch perlu dibuka untuk AI. Repositori yang berisi kode internal produk mungkin aman dibaca, tetapi repositori yang berisi rahasia klien atau data keuangan perlu dibatasi. Beberapa organisasi menerapkan aturan sederhana: AI hanya bisa membaca branch yang sudah melalui code review, bukan branch pengembangan yang berisi percobaan yang belum stabil. Yang lain memilih untuk membatasi akses AI hanya pada repositori yang sudah ditandai sebagai "aman AI" oleh tim keamanan.
Berikut contoh konfigurasi YAML yang mendefinisikan permission scope dan aturan secret handling untuk AI assistant.
# ai-access-policy.yaml
permission_scope:
allowed_repositories:
- "company/internal/*"
- "company/product/*"
blocked_repositories:
- "company/secret-client-data/*"
- "company/finance/*"
allowed_branches:
- "main"
- "release/*"
blocked_branches:
- "develop"
- "feature/*"
secret_handling:
block_file_patterns:
- "*.env"
- "*credential*"
- "*secret*"
- "*token*"
block_label:
- "secret-scope"
- "pii"
action_on_block: "reject"
Secret handling menjadi lapisan berikutnya. AI tidak boleh melihat password, token API, kunci enkripsi, atau data pribadi yang tidak perlu. Ini bukan hanya soal etika, tetapi juga soal kepatuhan dan risiko hukum. Cara paling efektif adalah dengan mencegah secret masuk ke konteks AI sejak awal — bukan mengandalkan AI untuk "tidak menyalahgunakannya". Tools seperti detektor secret otomatis di jalur pemrosesan, pre-commit hook, dan label file menjadi garis pertahanan pertama.
Data scope memperluas kontrol dari level repositori ke level data. Ketika AI digunakan untuk merangkum dokumen legal atau menganalisis laporan keuangan, organisasi perlu tahu data apa yang masuk ke AI, apakah data itu boleh diproses oleh model eksternal, dan berapa lama data itu disimpan. Beberapa perusahaan memilih untuk menjalankan model AI secara lokal atau di infrastruktur sendiri agar data tidak pernah meninggalkan lingkungan yang terkendali.
Branch policy dan review process memastikan bahwa output AI tidak masuk ke production tanpa pengawasan manusia. Di banyak tim, aturannya sederhana: AI boleh menulis kode, membuat patch, atau menyusun dokumen, tetapi semua output harus melalui pull request dan review seperti biasa. Tidak ada jalur cepat untuk AI. Beberapa tim bahkan menerapkan label khusus pada commit yang dibuat oleh AI agar reviewer bisa memberikan perhatian ekstra.
Audit log melengkapi semuanya. Setiap interaksi dengan AI — prompt yang dikirim, file yang dibaca, output yang dihasilkan, dan keputusan yang diambil — perlu tercatat. Bukan untuk mengawasi setiap gerakan engineer, tetapi untuk menyediakan jejak yang bisa diperiksa jika terjadi kesalahan. Ketika sebuah perubahan yang tidak diinginkan muncul di production, audit log membantu tim menjawab pertanyaan: apakah perubahan ini berasal dari AI? Siapa yang mereview? Data apa yang digunakan AI saat itu?
Yang terakhir, rollback AI memberikan kemampuan untuk membatalkan perubahan yang dibuat oleh AI secara massal jika diperlukan. Ini bukan soal menghapus semua kontribusi AI, tetapi soal memiliki mekanisme darurat ketika sesuatu berjalan tidak sesuai harapan.
Dengan kontrol kerja ini, organisasi bisa memakai AI dengan lebih percaya diri. Mereka bisa bergerak lebih cepat karena setiap langkah memiliki batas, jejak audit, dan mekanisme verifikasi. Rina dan timnya bisa memanfaatkan AI untuk pekerjaan yang sebelumnya memakan waktu berjam-jam, sementara tim keamanan dan compliance tetap memiliki kontrol yang jelas atas data.
Namun, kontrol kerja saja tidak cukup. Organisasi juga perlu memilih pendekatan tooling yang tepat agar kontrol ini bisa diterapkan tanpa membuat engineer frustrasi.