5月26日上午,上海漢濤信息咨詢有限公司(下稱漢濤公司)起訴北京百度網訊科技有限公司(下稱百度公司)、上海杰圖軟件技術有限公司(下稱杰圖公司)不正當競爭糾紛一案在上海浦東法院宣判。法院一審判決,百度公司停止不正當競爭行為,賠償漢濤公司經濟損失300萬元及合理費用23萬元,駁回漢濤公司的其余訴訟請求。
大眾點評:百度大量復制用戶點評,索賠9000萬元
漢濤公司是知名網站大眾點評網的創建者和運營商。該公司發現,自2012年以來,百度公司未經許可在百度地圖、百度知道中大量抄襲、復制大眾點評網的用戶點評信息,直接替代大眾點評網向用戶提供內容。
漢濤公司認為,此舉讓百度公司迅速獲得用戶和流量,給自己造成巨大損失。其行為違背公認的商業道德和誠實信用原則,構成不正當競爭。此外,百度公司的網站還使用了大眾點評網的圖文標識,使得相關公眾對服務來源產生誤認,屬于擅自使用知名服務特有名稱的不正當競爭行為。
2013年4月16日,有網友在微博上提問:“百度地圖的美食部分大量直接引用大眾點評網評論和介紹,但僅允許用百度帳號登錄進行評論。怎么回事?”對此“百度地圖”官方微博回復稱:“親 我們現在是合作關系呀”。漢濤公司認為,由于雙方并不存在合作關系,該回復已構成虛假宣傳。
作為城市吧街景地圖的經營者,杰圖公司將含有侵權內容的百度地圖內嵌于自己的網站中,漢濤公司認為,此舉擴大了侵權范圍,已構成共同侵權。
漢濤公司因此向浦東法院起訴,請求法院判令兩被告立即停止不正當競爭行為,共同賠償經濟損失9000萬及合理費用45萬余元,并在媒體上刊登公告消除影響。
百度公司:與大眾點評沒有競爭關系,抓取內容符合Robots協議
2016年4月11日,浦東法院對本案進行了公開開庭審理。
百度公司辯稱,大眾點評網為用戶提供以餐飲為主的消費點評、消費優惠等業務,同時提供餐廳預定、外賣等服務,而百度公司提供的是搜索服務,雙方不存在直接競爭關系。
百度公司還認為,用戶點評等信息不屬于著作權法保護的作品,即便用戶點評屬于作品,其著作權人也非漢濤公司,而是網絡用戶,故原告主張沒有法律依據。
此外,百度公司還在庭上公布了抓取網絡內容的技術標準,即搜索引擎在抓取網站特定內容時,是根據網站Robots協議的內容進行判斷。百度的抓取行為完全符合大眾點評網的Robots協議。如果漢濤公司認為百度侵權,完全可以修改網站Robots協議,禁止百度訪問,但漢濤公司并未這樣做。
百度公司使用大眾點評網的圖文標識,是為了標注信息的來源,不構成不正當競爭。至于在微博中回復“合作關系”,這并非宣傳行為,而是針對特定個人的被動回答。
杰圖公司辯稱,與百度公司不存在侵權行為上的共同故意或過失。無論百度公司是否構成不正當競爭,杰圖公司均不構成不正當競爭,不應承擔賠償責任。
法院:百度行為明顯系“搭便車”,構成不正當競爭
法院審理后認為,百度地圖和大眾點評在為用戶提供商戶信息和點評內容的服務模式上近乎一致,雙方存在直接競爭關系。百度地圖大量使用大眾點評網的用戶點評,替代其向網絡用戶提供信息,會導致大眾點評網的流量減少。與此同時,百度地圖又推介自己的團購等業務,攫取了大眾點評網的部分交易機會。而百度知道直接向用戶提供來自大眾點評網的點評信息,將一些想獲取點評信息的網絡用戶導流到了百度知道。
法院指出,市場經濟鼓勵市場主體在信息的生產、搜集和使用等方面進行各種形式的自由競爭,但是這種競爭應當充分尊重競爭對手在信息的生產、搜集和使用過程中的辛勤付出。本案大眾點評網的用戶點評信息是漢濤公司的核心競爭資源之一,能給漢濤公司帶來競爭優勢,具有商業價值。漢濤公司為運營大眾點評網付出了巨大的成本,通過法律維護點評信息使用市場的正當競爭秩序,有利于鼓勵經營者創新業務模式,投入成本改善消費者福祉。百度公司大量、全文使用涉案點評信息,實質替代大眾點評網向用戶提供信息,對漢濤公司造成損害,其行為違反了公認的商業道德和誠實信用原則,具有不正當性,構成不正當競爭。
法院同時指出,本案中百度公司的搜索引擎抓取涉案信息雖未違反Robots協議,但這并不意味著百度公司可以任意使用搜索引擎抓取的信息,百度公司應當本著誠實信用的原則和公認的商業道德,合理控制來源于第三方網站信息的使用范圍和方式。
不過,百度地圖在抓取信息中標注大眾點評網的圖文標識,是為了指示信息來源,屬于對他人標識的合理使用,并無不當。法院同時認為,百度地圖對涉案微博的回復,影響極其有限,也沒有證據對漢濤公司造成損害,尚不構成虛假宣傳。
杰圖公司運營的網站可調用百度地圖,侵權的信息僅存在于百度地圖中,符合行業通行做法,并不構成侵權。
通過綜合考慮百度地圖和百度知道的市場地位、侵權方式和范圍及持續時間、在本案訴訟過程中仍未停止不正當競爭行為等因素,法院酌情判決:百度公司停止不正當競爭行為,賠償漢濤公司經濟損失300萬元及合理費用23萬元,駁回漢濤公司的其余訴訟請求。
名詞解釋Robots協議(也稱為爬蟲協議、機器人協議等)的全稱是“網絡爬蟲排除標準”(Robots Exclusion Protocol),網站通過Robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取。