Định giá bất động sản bằng công nghệ
Theo lý thuyết thì có nhiều phương pháp định giá, nhưng để nói về định giá bằng công nghệ thì cũng có vài cái hay hay mà mình biết.
Thật sự lúc trước thì mình cứ nghĩ chắc phải có các thuật toán hay công thức rắc rối phức tạp lắm, nhưng mà hiện nay thì đa phần người ta dùng phương pháp so sánh, thế nên nhìn chung dữ liệu quan trọng chứ không phải công thức.
Mình có dịp tiếp xúc với 02 "trường phái" định gia khác nhau, nói là trường phái là vì cách thức tìm kiếm và tổng hợp dữ liệu. Cụ thể:
1_ Trường phái thứ nhất: Dùng nhiều đầu mối thông tin
Cách thức này, họ gắn liền với một công ty định giá, và liên kết với nhiều cộng tác viên ở nhiều khu vực khác nhau. Công tác viên cập nhật thông tin theo tháng, bù lại, sẽ có được các lợi ích kèm theo.
Cách làm này thì phần công nghệ không nhiều, nhưng phần mạng lưới cộng tác viên lại lớn, do đó để làm cho được cách này cũng tốn kha khá công sức và một hệ thống vận hành khá lớn.
2_ Trường phái thứ 2: Dùng Bigdata và AI
Nói là Bigdata và AI cho sang mồm nhưng mà chỉ ở cấp độ chưa cao. Nhưng mà cũng có những bước ban đầu cho việc đó. Và vì liên quan đên Bigdata và AI nên mình sẽ chia sẻ sâu hơn về trường phái này một chút.
Bước 1: Crawl data: Muốn có data để so sánh thì đầu tiên phải có nguồn data, và hiện tại thì cách thức đi Crawl (cào) data là cách hay được sử dụng nhất. Tuy nhiên các web thường có bộ "chống cào", nên muốn cào cũng phải có cách thức để thoát chống cào. Đây là một bài toán luôn diễn ra trên mạng.
Bước 2: Làm sạch data cào: Khi cào được data rồi thì đến bước làm sạch, làm sạch bằng cách so sánh data trùng theo nhiều cách, nhìn chung cái chính là loại bỏ thông tin trùng để tránh tham khảo 1 cái mà ngỡ là nhiều cái.
Bước 3: Lọc Keywork, trong mỗi mẫu tin đều có 1 thông điệp nào đó, thế thì phải chạy ra được cái thông điệp cần thiết hay keywork. Nôm na là nhìn vào mẫu tin, biết nó ở đường nào.
Bước 4: Xây dựng từ điển tích hợp: Một keywork là 1 đoạn văn bản mà cào được, nhưng muốn đưa nó vào "khuôn khổ lớp lang" thì phải có một bộ từ điển để ráp vào. Và phải có một công cụ để tự động sinh ra bộ từ điển này.
Bước 5: Match (kết nối) giữa cái mẫu tin đã lọc keywork và bộ từ điển đã chạy ra, để cuối cùng ra được kết quả là mẫu tin đó thuộc đường nào, giá nhiêu...
Bước 6: Loại bỏ các thông tin bất thường: Sẽ có một thuật toán để xây dựng "đường tuyến tính", và các giá trị phân bổ xung quanh đường tuyến tính thì mới được giữ lại, nếu xa đường tuyến tính quá được hiểu là giá trị bất thường và sẽ bị loại bỏ.
Bước 7: Chạy ra thành phẩm là bảng giá tuyến đường, đơn giá theo thời gian, cập nhật theo tháng để còn xây dựng được lịch sử giá.
Cứ tưởng tượng như 1 quy trình xử lý nước thải. Data ban đầu là tất cả các loại nước thải được đưa vào một khu vực gọi là Data Lake (hay có thể gọi là Data warehouse), rồi các tools nó như là các hóa chất xử lý theo từng giai đoạn, mỗi giai đoạn lại có một cách lọc khác nhau, và đến cuối cùng cho ra thành phẩm.
Quy trình này theo mình đánh giá sẽ có tính học hỏi, và đúng dần. Lý do là nếu việc theo dõi tổng hợp kéo dài 10 năm, 20 năm thì khả năng đúng càng cao, vì đó là lịch sử, nói gì thì nói, giá tháng sau cũng sẽ phụ thuộc vào giá tháng trước, nếu nó tồn tại hẳn 10 năm và lịch sử giá không có gì bất thường thì khả năng đúng của nó là cao chứ không thấp.
Nhưng suy cho cùng thì vẫn cần cái gọi là dữ liệu đầu vào. Ai có dữ liệu đầu vào tốt thì khả năng thông tin chính xác càng cao.
Theo dõi người đăng bài
Tiếp cận các chuyên gia VIP/PRO hàng đầu của 24HMONEY
Nhận ngay bài viết tài chính chuyên sâu
Bạn muốn trở thành VIP/PRO trên 24HMONEY?
Liên hệ 24HMONEY ngay
Bình luận